AWS und NVIDIA bringen armbasierte Graviton2-Instanzen mit GPUs in die Cloud

Quellknoten: 807655

AWS setzt seine Innovationen im Namen unserer Kunden fort. Wir arbeiten mit NVIDIA zusammen, um eine auf dem Arm-Prozessor basierende NVIDIA-GPU zu beschleunigen Amazon Elastic Compute-Cloud (Amazon EC2) -Instanz in der Cloud in der zweiten Hälfte des Jahres 2021. Diese Instanz wird die Arm-basierte Instanz enthalten AWS Graviton2 Prozessor, das von Grund auf von AWS entwickelt und für die Ausführung der Workloads durch Kunden in der Cloud optimiert wurde, wodurch viele nicht benötigte Komponenten eliminiert wurden, die andernfalls in einen Allzweckprozessor gelangen könnten.

AWS-Innovation mit Graviton2-Prozessoren

AWS hat weiterhin Pionierarbeit im Bereich Cloud Computing für unsere Kunden geleistet. Im Jahr 2018 war AWS der erste große Cloud-Anbieter, der Arm-basierte Instanzen in der Cloud mit EC2 A1-Instanzen anbot, die von AWS Graviton-Prozessoren unterstützt wurden. Diese Instanzen basieren auf Armkernen und verwenden in großem Umfang speziell für AWS entwickeltes Silizium. Sie eignen sich hervorragend für Scale-Out-Workloads, bei denen Sie die Last auf mehrere kleinere Instanzen verteilen können.

Im Jahr 2020 veröffentlichte AWS von AWS entwickelte, armbasierte Graviton2-Prozessoren, die einen großen Leistungs- und Leistungssprung gegenüber AWS Graviton-Prozessoren der ersten Generation bieten. Diese Prozessoren unterstützen EC2-Allzweckinstanzen (M6g, M6gd, T4g), rechneroptimierte (C6g, C6gd, C6gn) und speicheroptimierte (R6g, R6gd, X2gd) Instanzen und bieten eine bis zu 40% bessere Preisleistung bei vergleichbarem Strom Generierung von x86-basierten Instanzen für eine Vielzahl von Workloads. AWS Graviton2-Prozessoren bieten siebenmal mehr Leistung, viermal mehr Rechenkerne, fünfmal schnelleren Speicher und Caches, die doppelt so groß sind wie AWS Graviton-Prozessoren der ersten Generation.

Kunden wie Domo, Formel 2, Honeycomb.io, Intuit, LexisNexis Risk Solutions, Nielsen, NextRoll, Redbox, SmugMug, Snap und Twitter konnten durch die Ausführung von AWS Graviton2-basierten Instanzen in der Produktion erhebliche Leistungssteigerungen und Kostensenkungen verzeichnen. AWS Graviton64-Prozessoren, die auf der 2-Bit-Arm-Architektur basieren, werden von gängigen Linux-Betriebssystemen unterstützt, darunter Amazon Linux 2, Red Hat, SUSE und Ubuntu. Viele beliebte Anwendungen und Dienste von AWS und ISVs unterstützen auch AWS Graviton2-basierte Instanzen. Arm-Entwickler können diese Instanzen verwenden, um Anwendungen nativ in der Cloud zu erstellen, wodurch die Notwendigkeit von Emulation und Cross-Compilation entfällt, die fehleranfällig und zeitaufwändig sind. Das Hinzufügen von NVIDIA-GPUs beschleunigt GravitonXNUMX-basierte Instanzen für verschiedene Cloud-Workloads, einschließlich Spiele und andere armbasierte Workloads wie Inferenz für maschinelles Lernen (ML).

Verschieben Sie Android-Spiele ganz einfach in die Cloud

Laut Forschung von App AnnieMobile Gaming ist heute die beliebteste Form des Spielens und hat Konsole, PC und Mac überholt. Zusätzlich Forschung von App Annie hat gezeigt, dass bis zu 10% aller Zeit, die für mobile Geräte aufgewendet wird, für Spiele aufgewendet wird. Spieleentwickler müssen ihre Spiele für die verschiedenen mobilen Geräte unterstützen und optimieren, die heute und in Zukunft verwendet werden. Durch die Nutzung der Cloud können Spieleentwickler ein einheitliches Erlebnis für das gesamte Spektrum mobiler Geräte bieten und die Akkulaufzeit verlängern, da weniger Rechenaufwand und Strom für das mobile Gerät erforderlich sind. Mit der AWS Graviton2-Instanz mit NVIDIA GPU-Beschleunigung können Spieleentwickler Android-Spiele nativ ausführen, die gerenderten Grafiken codieren und das Spiel über Netzwerke auf ein mobiles Gerät streamen, ohne Emulationssoftware auf einer x86-CPU-basierten Infrastruktur ausführen zu müssen.

Kostengünstige, GPU-basierte Inferenz für maschinelles Lernen

Neben mobilen Spielen suchen Kunden, die Modelle für maschinelles Lernen in der Produktion ausführen, kontinuierlich nach Möglichkeiten, die Kosten zu senken, da ML-Inferenz bis zu 90% der gesamten Infrastrukturausgaben für die Ausführung dieser Anwendungen in großem Maßstab ausmachen kann. Mit diesem neuen Angebot können Kunden die Preis- / Leistungsvorteile von Graviton2 nutzen, um GPU-beschleunigte Deep-Learning-Modelle zu deutlich geringeren Kosten im Vergleich zu x86-basierten Instanzen mit GPU-Beschleunigung bereitzustellen.

AWS und NVIDIA: Eine lange Geschichte der Zusammenarbeit

AWS und NVIDIA arbeiten seit über 10 Jahren zusammen, um Kunden, einschließlich der neuesten, kontinuierlich leistungsstarke, kostengünstige und flexible GPU-basierte Lösungen bereitzustellen EC2 G4-Instanzen mit NVIDIA T4 GPUs im Jahr 2019 und EC2 P4d-Instanzen mit NVIDIA A100-GPUs, die im Jahr 2020 eingeführt wurden. EC2 P4d-Instanzen werden in Hyperscale-Clustern namens EC2 UltraClusters bereitgestellt, die aus den leistungsstärksten Rechen-, Netzwerk- und Speicherfunktionen in der Cloud bestehen. EC2 UltraCluster unterstützen 400-Gbit / s-Instanznetzwerke, Elastic Fabric Adapter (EFA) und NVIDIA GPUDirect RDMA-Technologie, um ML-Modelle mithilfe von Scale-Out- und verteilten Techniken schnell zu trainieren.

Wir sind nicht nur der erste in der Cloud, der GPU-beschleunigte Instanzen anbietet, und der erste in der Cloud, der NVIDIA V100-GPUs anbietet, sondern arbeiten jetzt mit NVIDIA zusammen, um neue EC2-Instanzen anzubieten, die einen Arm-basierten Prozessor mit einem GPU-Beschleuniger in der zweite Hälfte des Jahres 2021. Um mehr darüber zu erfahren, wie AWS und NVIDIA zusammenarbeiten, um Kunden innovative Technologien anzubieten, besuchen Sie AWS bei NVIDIA GTC 21.


Über den Autor

Geoff Murase ist Senior Product Marketing Manager für AWS EC2-beschleunigte Computerinstanzen und unterstützt Kunden bei der Erfüllung ihrer Rechenanforderungen, indem er Zugriff auf hardwarebasierte Rechenbeschleuniger wie Grafikprozessoren (GPUs) oder Field Programmable Gate Arrays (FPGAs) bietet. In seiner Freizeit spielt er gerne Basketball und fährt mit seiner Familie Fahrrad.

Quelle: https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-to-bring-arm-based-instances-with-gpus-to-the-cloud/

Zeitstempel:

Mehr von AWS-Blog für maschinelles Lernen