SiFive RISC-V mag a Google AI számítási csomópontjaihoz

Forrás csomópont: 1684403

A RISC-V chip biz SiFive szerint a processzorait bizonyos mértékig az AI munkaterhelésének kezelésére használják a Google adatközpontjaiban.

A SiFive szerint a szóban forgó processzor az Intelligenciája X280, egy többmagos RISC-V kialakítás vektorbővítésekkel, adatközponti AI/ML alkalmazásokhoz optimalizálva. A mátrixszorzó egységekkel (MXU) kombinálva, amelyeket a Google tenzor feldolgozó egységeiből (TPU-k), ez állítólag nagyobb rugalmasságot biztosít a gépi tanulási munkaterhelések programozásához.

Lényegében az X280 általános célú RV64 magjai a processzorban olyan kódot futtatnak, amely kezeli az eszközt, és a feladatok elvégzéséhez szükséges gépi tanulási számításokat a Google MXU-jaiba táplálja. Az X280 saját vektoros matematikai egységet is tartalmaz, amely képes kezelni azokat a műveleteket, amelyeket a gyorsító egységek nem.

A SiFive és a Google kissé kaján volt, talán kereskedelmi okokból, hogy pontosan hogyan csomagolják és használják, bár nekünk úgy hangzik, mintha a Google egy többmagos X280 rendszer-chipbe helyezte volna el egyedi gyorsító egységeit, összekötve a A Google által tervezett MXU blokkolja közvetlenül a RISC-V magkomplexumot. Ezeket a chipeket a Google adatközpontjaiban, a SiFive szerint „AI számítási hosztokban” használják a gépi tanulási munka felgyorsítására.

Azt képzeljük, hogy ha ezeket a termelésben használják, akkor ezek a chipek a szolgáltatásokon belüli feladatokat látják el. Megjegyezzük, hogy ezt a hardvert nem bérelheti közvetlenül a Google Cloudon, amely mesterséges intelligencia-optimalizált virtuális gépeket kínál hagyományos x86, Arm, TPU és GPU technológiával.

A részleteket a hónap elején a Szilícium-völgyben megrendezett AI Hardver Csúcson hozták nyilvánosságra, a SiFive társalapítója és főépítésze, Krste Asanović, valamint a Google TPU építésze, Cliff Young, valamint egy SiFive blogbejegyzés ezen a héten.

A SiFive szerint észrevette, hogy az X280 bevezetését követően egyes ügyfelek a gyorsító mellett kísérőmagként kezdték használni, hogy elvégezzék mindazokat a háztartási és általános célú feldolgozási feladatokat, amelyekre a gyorsítót nem tervezték.

Sokan úgy találták, hogy a gyorsító kezeléséhez teljes funkcionalitású szoftvercsomagra van szükség – mondja a chip biz, és az ügyfelek rájöttek, hogy ezt meg tudják oldani egy X280 magkomplexummal a nagy gyorsítójuk mellett, a RISC-V CPU magokkal, amelyek kezelik az összes karbantartást és műveleti kódot, olyan matematikai műveleteket hajt végre, amelyeket a nagy gyorsító nem tud, és számos egyéb funkciót biztosít. Lényegében az X280 egyfajta felügyeleti csomópontként szolgálhat a gyorsító számára.

Ennek kiaknázása érdekében a SiFive olyan ügyfelekkel dolgozott együtt, mint a Google, és kifejlesztette az úgynevezett Vector Coprocessor Interface eXtension-t (VCIX), amely lehetővé teszi az ügyfelek számára, hogy szorosan összekapcsolják a gyorsítót közvetlenül az X280 vektorregiszter fájljával, így nagyobb teljesítményt és nagyobb adatmennyiséget biztosítanak. sávszélesség.

Asanović szerint az előny az, hogy az ügyfelek behozhatják saját társprocesszorukat a RISC-V ökoszisztémába, és egy komplett szoftververmet és programozási környezetet futtathatnak, amely lehetővé teszi a Linux rendszerindítását teljes virtuális memóriával és gyorsítótár koherens támogatásával egy olyan chipen, amely tartalmaz egy általános célú CPU magok és gyorsító egységek keveréke.

A Google szemszögéből a TPU-technológiák családjának fejlesztésére akart összpontosítani, és nem vesztegetni az időt saját alkalmazásprocesszorának a semmiből való megalkotására, így ezeknek a gyorsítási funkcióknak a párosítása egy kész általános célú processzorral tűnt a megfelelő útnak. Young szerint menni.

A VCIX lényegében alacsony késleltetéssel ragasztja az MXU-kat a RISC-V magokhoz, így nem kell sok ciklust várni arra, hogy a memórián, a gyorsítótáron vagy a PCIe-n keresztül a CPU és a gyorsítóegység közötti adatátvitelre kerüljön sor. Ehelyett, azt mondják, ez csak több tíz ciklus a vektorregiszter-hozzáférésen keresztül. Ez is azt sugallja, hogy minden – a RISC-V CPU-komplexum és az egyedi gyorsítók – mind ugyanazon a lapkán találhatók, rendszer-chipbe csomagolva.

Az alkalmazáskód az általános célú RISC-V magokon fut, és minden olyan munka, amelyet az MXU felgyorsíthat, a VCIX-en keresztül kerül átadásra. Young szerint ennek a megközelítésnek a hatékonyság mellett más előnyei is vannak. A programozási modell leegyszerűsödött, ami egyetlen programot eredményez skaláris, vektoros és társprocesszoros utasításokkal, és egyetlen szoftveres eszközláncot tesz lehetővé, ahol a fejlesztők C/C++ nyelven vagy assemblerben kódolhatnak, ahogy kívánják.

„A Google MXU-kkal „hibridizált” SiFive VCIX-alapú általános célú magokkal olyan gépet építhet, amely lehetővé teszi, hogy „igya meg a süteményét és egye meg azt”, teljes mértékben kihasználva az MXU összes teljesítményét és az általános programozhatóságot. CPU, valamint az X280 processzor vektorteljesítménye” – mondta Young.

Az ilyen egyedi chipek készítésének képessége valószínűleg továbbra is az olyan hiperskálázók tartománya marad, mint a Google, vagy azoké, akik résigényűek és mély zsebekkel rendelkeznek, de jól mutatja, mit lehet elérni a nyílt ökoszisztéma RISC-V modelljének rugalmasságával. .

Úgy tűnik, hogy ez a rugalmasság és nyitottság elegendő ahhoz, hogy a Google – a RISC-V régóta támogatója, és néhány más termékében RV-magokat is használjon – rávegye a felkapott architektúra használatára, ahelyett, hogy egyedi társprocesszorait x86-os chipekké vagy Arm-ba rakja. -engedélyezett tervek. ®

PS: Emlékezzen, amikor a Google volt játszadozik a POWER CPU architektúra használatával az adatközpontjaiban?

Időbélyeg:

Még több A regisztráció