Nvidia stellt Grace ARM-basierte CPU für riesige KI- und HPC-Apps vor

Quellknoten: 808871

Treten Sie Transform 2021 vom 12. bis 16. Juli bei. Registrieren Sie sich fürr das AI-Event des Jahres.


Nvidia hat heute seinen Grace-Prozessor vorgestellt. Es handelt sich um eine ARM-basierte Zentraleinheit (CPU) für groß angelegte künstliche Intelligenz und Hochleistungsrechneranwendungen. Es handelt sich um Nvidias erste Rechenzentrums-CPU, die speziell für Anwendungen im großen Maßstab entwickelt wurde, sagte Nvidia-CEO Jensen Huang in einer Grundsatzrede bei Nvidia AGB 2021 Ereignis.

Grace ermöglicht mithilfe energieeffizienter ARM-Kerne einen zehnfachen Leistungssprung für Systeme, die riesige KI-Modelle trainieren. Und Nvidia sagte, dass das Swiss Supercomputing Centre und das Los Alamos National Laboratory des US-Energieministeriums die ersten sein werden, die Grace nutzen werden, das nach ihm benannt ist Grace Hopper, der in den 1950er Jahren Pionier der Computerprogrammierung war. Die CPU wird voraussichtlich Anfang 2023 verfügbar sein.

„Grace ist eine bahnbrechende CPU. „Es wurde speziell für beschleunigte Rechenanwendungen im großen Maßstab für KI und HPC entwickelt“, sagte Paresh Kharya, Senior Director für Produktmanagement und Marketing bei Nvidia, in einer Pressekonferenz.

Huang sagte: „Es ist die weltweit erste CPU, die für Computing im Terabyte-Bereich ausgelegt ist.“

Oben: Grace ist das Ergebnis von 10,000 Jahren Ingenieursarbeit.

Bildnachweis: Nvidia

Die CPU ist das Ergebnis von mehr als 10,000 Jahren Entwicklungsarbeit. Nvidia sagte, der Chip werde die Rechenanforderungen für die fortschrittlichsten Anwendungen der Welt erfüllen – einschließlich der Verarbeitung natürlicher Sprache, Empfehlungssystemen und KI-Supercomputing – die Analysen durchführen
Riesige Datensätze, die sowohl eine ultraschnelle Rechenleistung als auch enormen Speicher erfordern.

Grace kombiniert energieeffiziente ARM-CPU-Kerne mit einem innovativen Speichersubsystem mit geringem Stromverbrauch, um hohe Leistung bei großer Effizienz zu liefern. Der Chip wird einen zukünftigen ARM-Kern namens Neoverse verwenden.

„Modernste KI und Datenwissenschaft bringen die heutige Computerarchitektur über ihre Grenzen hinaus und verarbeiten unvorstellbare Datenmengen“, sagte Huang in seiner Rede. „Unter Verwendung lizenzierter ARM-IP hat Nvidia Grace als CPU speziell für KI und HPC im großen Maßstab entwickelt. In Verbindung mit der GPU und der DPU bietet uns Grace die dritte grundlegende Technologie für die Datenverarbeitung und die Möglichkeit, das Rechenzentrum neu zu gestalten, um die KI voranzutreiben. Nvidia ist jetzt ein Drei-Chip-Unternehmen.“

Grace ist ein hochspezialisierter Prozessor, der auf Arbeitslasten wie das Training von NLP-Modellen der nächsten Generation mit mehr als einer Billion Parametern abzielt. Bei enger Kopplung mit Nvidia-GPUs liefert ein Grace-basiertes System eine zehnmal schnellere Leistung als heutige Nvidia-DGX-basierte Systeme, die auf x1-CPUs laufen. In einer Pressekonferenz fragte jemand, ob Nvidia mit x10-Chips von Intel und AMD konkurrieren werde.

Kharya sagte: „Wir konkurrieren nicht mit x86 … wir arbeiten weiterhin sehr gut mit x86-CPUs.“

Oben: Der Alps-Supercomputer wird Grace-CPUs von Nvidia verwenden.

Bildnachweis: Nvidia

Grace ist für KI- und HPC-Anwendungen konzipiert, Nvidia gibt jedoch keine weiteren Informationen darüber bekannt, wo Grace heute eingesetzt werden wird. Nvidia lehnte es außerdem ab, die Anzahl der Transistoren im Grace-Chip preiszugeben.

Nvidia führt Grace ein, da das Datenvolumen und die Größe von KI-Modellen exponentiell wachsen. Die größten KI-Modelle von heute umfassen Milliarden von Parametern und verdoppeln sich alle zweieinhalb Monate. Um sie zu trainieren, ist eine neue CPU erforderlich, die eng mit einer GPU gekoppelt werden kann, um Systemengpässe zu beseitigen.

„Die größte Ankündigung von GTC 21 war Grace, eine eng integrierte CPU für über eine Billion Parameter-KI-Modelle“, sagte Patrick Moorhead, Analyst bei Moor Insights & Strategies. „Es ist schwer, diejenigen anzusprechen, die über klassische x86-CPUs und GPUs über PCIe verbunden sind. Grace konzentriert sich auf E/A und Speicherbandbreite, teilt sich den Hauptspeicher mit der GPU und sollte nicht mit Allzweck-Rechenzentrums-CPUs von AMD oder Intel verwechselt werden.“

Die Leistung von Grace basiert auf der Nvidia NVLink-Verbindungstechnologie der 4. Generation, die 900-Gigabyte-pro-Sekunde-Verbindungen zwischen Grace und Nvidia-Grafikprozessoren (GPUs) bereitstellt, um eine 30-mal höhere Gesamtbandbreite im Vergleich zu den heute führenden Servern zu ermöglichen.

Grace wird außerdem ein innovatives LPDDR5x-Speichersubsystem verwenden, das im Vergleich zu DDR10-Speicher die doppelte Bandbreite und eine zehnmal bessere Energieeffizienz bietet. Darüber hinaus bietet die neue Architektur eine einheitliche Cache-Kohärenz mit einem einzigen Speicheradressraum und kombiniert System- und HBM-GPU-Speicher, um die Programmierbarkeit zu vereinfachen.

„Die Grace-Plattform und ihre Arm-CPU sind ein großer neuer Schritt für Nvidia“, sagte Kevin Krewell, Analyst bei Tirias Research, in einer E-Mail. „Das neue Design einer benutzerdefinierten CPU, die mit kohärenten NVlinks an die GPU angeschlossen ist, ist Nvidias neues Design für die Skalierung auf extrem große KI-Modelle, deren Ausführung jetzt Tage dauert. Der Schlüssel zu Grace liegt darin, dass mit der benutzerdefinierten Arm-CPU eine Skalierung auf große LPDDR5-DRAM-Arrays möglich sein wird, die weitaus größer sind als mit Speicher mit hoher Bandbreite, der direkt an die GPUs angeschlossen ist.“

Oben: Das Los Alamos National Laboratory wird Grace-CPUs verwenden.

Bildnachweis: Nvidia

Grace wird für die Schweizer Organisation den schnellsten Supercomputer der Welt antreiben. Die Maschine mit dem Namen Alps wird über 20 Exaflops KI-Verarbeitung verfügen. (Dies bezieht sich auf die Menge an Rechenleistung, die für KI-Anwendungen zur Verfügung steht.) Das ist etwa siebenmal mehr Rechenleistung als mit dem 7-Exaflop-Supercomputer Nvidia Seline, dem derzeit führenden KI-Supercomputer, verfügbar ist. HP Enterprise wird das Alps-System aufbauen.

Alps wird an Problemen in Bereichen arbeiten, die von Klima und Wetter über Materialwissenschaften, Astrophysik, numerische Strömungsmechanik, Biowissenschaften, Molekulardynamik, Quantenchemie und Teilchenphysik bis hin zu Bereichen wie Wirtschafts- und Sozialwissenschaften reichen, und wird in online gehen 2023. Alps wird quantenchemische und physikalische Berechnungen für den Hadron Collider sowie Wettermodelle durchführen.

Oben: Jensen Huang, CEO von Nvidia, bei GTC 21.

Bildnachweis: Nvidia

„Dies ist eine sehr ausgewogene Architektur mit Grace und einer zukünftigen Nvidia-GPU, die wir noch nicht angekündigt haben, um bahnbrechende Forschung in einem breiten Spektrum von Bereichen zu ermöglichen“, sagte Kharya.

Unterdessen kündigte Nvidia auch an, seine Grafikchips mit der Graviton2 ARM-basierten CPU von Amazon Web Services für Rechenzentren für Cloud Computing verfügbar zu machen.

Mit Grace wird Nvidia einen mehrjährigen Ansatz zur Entwicklung von Grafikprozessoren, CPUs und Datenverarbeitungseinheiten (CPUs) einschlagen und zwischen ARM- und x86-Architekturdesigns wechseln, sagte Huang.

VentureBeat

Die Mission von VentureBeat ist es, ein digitaler Stadtplatz für technische Entscheidungsträger zu sein, um Wissen über transformative Technologie und Transaktionen zu erlangen. Unsere Website bietet wichtige Informationen zu Datentechnologien und -strategien, die Sie bei der Führung Ihres Unternehmens unterstützen. Wir laden Sie ein, Mitglied unserer Community zu werden und auf Folgendes zuzugreifen:

  • aktuelle Informationen zu den für Sie interessanten Themen
  • unsere Newsletter
  • gated Vordenker-Inhalte und ermäßigter Zugang zu unseren wertvollen Veranstaltungen, wie z Transformiere NO: Erfahren Sie mehr
  • Netzwerkfunktionen und mehr

Mitglied werden

Quelle: https://venturebeat.com/2021/04/12/nvidia-unveils-grace-arm-based-cpu-for-giant-scale-ai-and-hpc-apps/

Zeitstempel:

Mehr von VentureBeat