Verbetering van RISC-V Vector-extensies om de prestaties van ML-workloads te versnellen

Bronknooppunt: 1853315

In de week van 19 aprilthhield Linley Group haar Spring Processor Conference 2021. De Linley Group heeft de reputatie uitstekende conferenties te organiseren. En de voorjaarsconferentie van dit jaar was daarop geen uitzondering. Er waren een aantal zeer informatieve lezingen van verschillende bedrijven die het publiek op de hoogte brachten van de nieuwste onderzoeks- en ontwikkelingswerkzaamheden die in de industrie plaatsvinden. De presentaties waren onderverdeeld in acht verschillende onderwerpen. De onderwerpen waren Edge AI, Embedded SoC Design, Scaling AI Training, AI SoC Design, Network Infrastructure for AI en 5G, Edge AI Software, Signal Processing en Efficient AI Inference.

Kunstmatige Intelligentie (AI) heeft als technologie de afgelopen jaren veel aandacht en investeringen gekregen. De conferentie weerspiegelde dat zeker in het aantal onderwerpcategorieën met betrekking tot AI. Binnen de bredere categorie AI was Edge AI een onderwerp dat terecht een oneerlijk aandeel in de presentaties kreeg. Edge computing maakt een snelle groei door, aangedreven door IoT, 5G en andere toepassingen met lage latentie.

Eén van de presentaties binnen de categorie Edge AI had de titel “Verbetering van RISC-V-vectorextensies om de prestaties van ML-workloads te versnellen.” De lezing werd gegeven door Chris Lattner, President, Engineering en Product bij SiFive, Inc. Chris maakte sterk duidelijk waarom SiFive's op RISC-V vectorextensies gebaseerde oplossing uitstekend geschikt is voor AI-gestuurde toepassingen. Het volgende is mijn mening.

Marktvereisten:

Naarmate de markt voor edge computing groeit, worden ook de prestatie- en stroomvereisten van deze applicaties steeds veeleisender. Veel van deze toepassingen zijn AI-gestuurd en vallen in de categorie machine learning (ML)-workloads. En de adoptie van AI zorgt ervoor dat de verwerkingseisen meer in de richting van datamanipulatie gaan dan van algemeen computergebruik. Deep learning ligt ten grondslag aan ML-modellen en omvat de verwerking van grote hoeveelheden gegevens. Nu ML-modellen zich snel ontwikkelen, zou een ideale oplossing er een zijn die optimaliseert voor: prestaties, kracht, het gemak van het integreren van opkomende ML-modellen en de reikwijdte van de daaruit voortvloeiende hardware- en/of softwarewijzigingen.

RISC-V Vectorvoordeel:

De oorspronkelijke motivatie achter het initiatief dat ons de RISC-V-architectuur heeft opgeleverd, is experimenteren. Experimenteren om chipontwerpen te ontwikkelen die betere prestaties opleveren in het licht van de verwachte vertraging van de wet van Moore. RISC-V is gebouwd op het idee om bepaalde chips op maat te kunnen maken, waarbij u kunt kiezen welke instructiesetuitbreidingen u gebruikt. Vectorextensies maken het mogelijk vectoren van elke lengte te verwerken met behulp van functies die vectoren met vaste lengtes verwerken. Met vectorverwerking kan bestaande software worden uitgevoerd zonder opnieuw te compileren wanneer hardware wordt geüpgraded in de vorm van meer ALU's en andere functionele eenheden. Er is aanzienlijke vooruitgang geboekt op het gebied van de gevestigde hardwarebasis en het ondersteunen van ecosystemen zoals compilertechnologieën.

RISC-V kan via aangepaste extensies worden geoptimaliseerd voor een bepaald domein of een bepaalde applicatie. Als een open standaard instructiesetarchitectuur genieten RISC-V-gebruikers veel flexibiliteit bij het kiezen van een leverancier voor hun chipontwerpbehoeften.

Het aanbod van SiFive:

SiFive heeft het RISC-V Vector-voordeel vergroot door nieuwe vectorextensies toe te voegen voor het versnellen van de uitvoering van veel verschillende neurale netwerkmodellen. Raadpleeg Figuur 1 om een ​​voorbeeld te zien van het soort versnelling dat kan worden behaald met behulp van de add-on-extensies van SiFive, vergeleken met het gebruik van alleen de basisvectorextensies van RISC-V. De Intelligence X280-oplossing is een multi-core-compatibele RISC-V Vector-oplossing (hardware en software) om het voor zijn klanten gemakkelijk te maken om geoptimaliseerde Edge AI-applicaties te implementeren. De oplossing kan ook worden gebruikt om datacentertoepassingen te implementeren.

Figuur 1:

SuperCharge ML Prestatierisico-v

SiFive-voordeel:

  • SiFive's Intelligence X280-oplossing ondersteunt TensorFlow en TensorFlow Lite open-sourceplatforms voor machine learning volledig (zie figuur 2)
  • SiFive biedt een eenvoudige manier om de bestaande code van de klant op basis van andere architecturen te migreren naar de RISC-V Vector-architectuur. SiFive kan bijvoorbeeld ARM Neon-code vertalen naar RISC-V V-assemblagecode
  • SiFive biedt haar klanten de mogelijkheid om aangepaste extensies aan hun RISC-V-implementaties toe te voegen
  • SiFive breidt via zijn OpenFive-businessunit op maat gemaakte chipimplementatiediensten uit om aan domeinspecifieke siliciumbehoeften te voldoen

Figuur 2:

Volledige ondersteuning TensorFlow Lite risk-v-sive

Overzicht:

Kortom: SiFive-klanten kunnen hun applicaties eenvoudig en snel implementeren, of het nu gaat om Edge AI-workloads of traditionele datacenter-workloads. Als u geïnteresseerd bent om te profiteren van de oplossingen van SiFive voor het versnellen van de prestaties van uw ML-workloads, raad ik u aan zich te registreren en te luisteren naar Het hele gesprek van Chris en bespreek vervolgens met SiFive hoe u hun verschillende aanbiedingen kunt benutten voor de ontwikkeling van uw producten.

Deel dit bericht via: Bron: https://semiwiki.com/ip/sifive/299157-enhancing-risc-v-vector-extensions-to-accelerate-performance-on-ml-workloads/

Tijdstempel:

Meer van semi-wiki