AWS i NVIDIA wprowadzą do chmury instancje Graviton2 oparte na technologii Arm z procesorami GPU

Węzeł źródłowy: 807655

AWS nieustannie wprowadza innowacje w imieniu naszych klientów. Współpracujemy z firmą NVIDIA nad wprowadzeniem opartego na procesorze Arm i akceleracji GPU NVIDIA Elastyczna chmura obliczeniowa Amazon (Amazon EC2) do chmury w drugiej połowie 2021 r. W tej instancji będzie dostępna wersja Arm-based Procesor AWS Graviton2, który został zbudowany od podstaw przez AWS i zoptymalizowany pod kątem sposobu, w jaki klienci uruchamiają swoje obciążenia w chmurze, eliminując wiele niepotrzebnych komponentów, które w przeciwnym razie mogłyby trafić do procesora ogólnego przeznaczenia.

Innowacja AWS z procesorami Graviton2

AWS nadal jest pionierem przetwarzania w chmurze dla naszych klientów. W 2018 roku AWS był pierwszym dużym dostawcą chmury, który oferował instancje oparte na Arm w chmurze z instancjami EC2 A1 obsługiwanymi przez procesory AWS Graviton. Te instancje są zbudowane wokół rdzeni Arm i szeroko wykorzystują niestandardowy krzem AWS. Doskonale nadają się do obciążeń skalowalnych w poziomie, w których można dzielić obciążenie w grupie mniejszych wystąpień.

W 2020 roku AWS wypuściło zaprojektowane przez AWS procesory Graviton2 oparte na Arm, zapewniające znaczny skok wydajności i możliwości w porównaniu z procesorami AWS Graviton pierwszej generacji. Procesory te obsługują instancje ogólnego przeznaczenia EC2 (M6g, M6gd, T4g), zoptymalizowane pod kątem obliczeń (C6g, C6gd, C6gn) i zoptymalizowane pod kątem pamięci (R6g, R6gd, X2gd) i zapewniają do 40% lepszą wydajność cenową w porównaniu z porównywalnym prądem generowanie wystąpień opartych na procesorach x86 dla szerokiej gamy obciążeń. Procesory AWS Graviton2 zapewniają siedmiokrotnie większą wydajność, czterokrotnie więcej rdzeni obliczeniowych, pięciokrotnie szybszą pamięć i dwukrotnie większą pamięć podręczną w porównaniu z procesorami AWS Graviton pierwszej generacji.

Klienci, w tym Domo, Formula One, Honeycomb.io, Intuit, LexisNexis Risk Solutions, Nielsen, NextRoll, Redbox, SmugMug, Snap i Twitter, zauważyli znaczny wzrost wydajności i zmniejszenie kosztów związanych z uruchomieniem instancji opartych na AWS Graviton2 w środowisku produkcyjnym. Procesory AWS Graviton2, oparte na 64-bitowej architekturze Arm, są obsługiwane przez popularne systemy operacyjne Linux, w tym Amazon Linux 2, Red Hat, SUSE i Ubuntu. Wiele popularnych aplikacji i usług od AWS i ISV również obsługuje instancje oparte na AWS Graviton2. Twórcy ARM mogą używać tych wystąpień do tworzenia aplikacji natywnie w chmurze, eliminując w ten sposób potrzebę emulacji i kompilacji krzyżowej, które są podatne na błędy i czasochłonne. Dodanie procesorów graficznych NVIDIA przyspiesza wystąpienia oparte na Graviton2 dla różnych obciążeń w chmurze, w tym gier i innych obciążeń opartych na Arm, takich jak wnioskowanie w uczeniu maszynowym (ML).

Z łatwością przenoś gry na Androida do chmury

Zgodnie z badania z App Anniegry mobilne są obecnie najpopularniejszą formą gier i wyprzedziły konsole, komputery PC i Mac. Dodatkowy badania z App Annie wykazał, że do 10% czasu spędzanego na urządzeniach mobilnych jest poświęcane grom, a twórcy gier muszą wspierać i optymalizować swoje gry pod kątem zróżnicowanego zestawu urządzeń mobilnych używanych obecnie iw przyszłości. Wykorzystując chmurę, twórcy gier mogą zapewnić jednolite wrażenia w całym spektrum urządzeń mobilnych i wydłużyć żywotność baterii ze względu na mniejsze zapotrzebowanie na moc obliczeniową i energię urządzenia mobilnego. Instancja AWS Graviton2 z akceleracją NVIDIA GPU umożliwia twórcom gier natywne uruchamianie gier na Androida, kodowanie renderowanej grafiki i przesyłanie strumieniowe gry przez sieci na urządzenie mobilne, a wszystko to bez konieczności uruchamiania oprogramowania emulującego na infrastrukturze opartej na procesorach x86.

Ekonomiczne wnioskowanie z uczenia maszynowego oparte na GPU

Oprócz gier mobilnych klienci korzystający z modeli uczenia maszynowego w środowisku produkcyjnym nieustannie szukają sposobów na obniżenie kosztów, ponieważ wnioskowanie ML może stanowić do 90% całkowitych wydatków na infrastrukturę do uruchamiania tych aplikacji na dużą skalę. Dzięki tej nowej ofercie klienci będą mogli skorzystać z zalet Graviton2 w zakresie ceny / wydajności, aby wdrożyć modele głębokiego uczenia z akceleracją GPU po znacznie niższych kosztach w porównaniu z instancjami opartymi na procesorach x86 z akceleracją GPU.

AWS i NVIDIA: długa historia współpracy

AWS i NVIDIA współpracują od ponad 10 lat, aby stale dostarczać klientom wydajne, opłacalne i elastyczne rozwiązania oparte na procesorach graficznych, w tym najnowsze Instancje EC2 G4 z procesorami graficznymi NVIDIA T4 wprowadzonymi na rynek w 2019 r. i Instancje EC2 P4d z procesorami graficznymi NVIDIA A100 wprowadzonymi na rynek w 2020 r. Instancje EC2 P4d są wdrażane w hiperskalowych klastrach zwanych EC2 UltraClusters, które składają się z najwyższej wydajności obliczeniowej, sieciowej i pamięci masowej w chmurze. EC2 UltraClusters obsługują sieci instancji 400 Gb / s, Elastic Fabric Adapter (EFA) i technologię NVIDIA GPUDirect RDMA, aby pomóc w szybkim szkoleniu modeli ML przy użyciu technik skalowania w poziomie i technik rozproszonych.

Oprócz tego, że jako pierwsi w chmurze oferujemy instancje z akceleracją GPU i jako pierwsi w chmurze, oferując procesory graficzne NVIDIA V100, teraz współpracujemy z NVIDIA, aby zaoferować nowe instancje EC2, które łączą procesor oparty na ARM z akceleratorem GPU w druga połowa 2021 roku. Aby dowiedzieć się więcej o tym, jak AWS i NVIDIA współpracują w celu dostarczania klientom innowacyjnych technologii, odwiedź AWS na targach NVIDIA GTC 21.


O autorze

Geoffa Murase’a jest starszym menedżerem ds. marketingu produktów w przypadku instancji obliczeniowych z akceleracją AWS EC2, pomagając klientom w zaspokajaniu ich potrzeb obliczeniowych, zapewniając dostęp do sprzętowych akceleratorów obliczeniowych, takich jak jednostki przetwarzania grafiki (GPU) lub macierze bramek programowalne przez użytkownika (FPGA). W wolnym czasie lubi z rodziną grać w koszykówkę i jeździć na rowerze.

Źródło: https://aws.amazon.com/blogs/machine-learning/aws-and-nvidia-to-bring-arm-based-instances-with-gpus-to-the-cloud/

Znak czasu:

Więcej z Blog dotyczący uczenia maszynowego AWS