Nvidia bezeichnet sich selbst als Schöpfer des Metaverses

Quellknoten: 1461773

Nvidia versteht sich als Hardware-Oberherr des „Metaversums“ und hat einige Hinweise auf die Funktionsweise eines parallelen 3D-Universums fallen gelassen, in dem unsere Cartoon-Ichs arbeiten, spielen und interagieren können.

Das Chip-Unternehmen hat in Omniverse neue Anlagen hinzugefügt – eine zugrunde liegende Hardware- und Software-Engine, die als Planetenkern fungiert und virtuelle Gemeinschaften in einem alternativen 3D-Universum zusammenführt. Omniverse wird auch zur Erstellung von Avataren verwendet, um reale Erlebnisse in Autos, Krankenhäusern und Robotern zu verbessern.

„Wir fordern die Leute nicht auf, das zu ersetzen, was sie tun, wir verbessern das, was sie tun“, sagte Richard Kerris, Vizepräsident der Omniverse-Plattform, während einer Pressekonferenz.

Die Omniverse-Ankündigungen erfolgten während des Unternehmens GPU-Technologie-Konferenz diese Woche. Nvidia-CEO Jensen Huang wird sprechen über viele dieser Ankündigungen am Dienstag.

Jensen

Jensen, wie Sie ihn noch nie zuvor gesehen haben. Quelle: Nvidia. klicken um zu vergrößern

Eine solche Ankündigung ist Omniversum-Avatar, das interaktive, intelligente KI-Avatare generieren kann, um Gästen beispielsweise bei der Essensbestellung zu helfen oder einem Fahrer dabei zu helfen, selbst einzuparken oder sich besser auf den Straßen zurechtzufinden.

Nvidia gab ein Beispiel für einen Konversations-Avatar, der Kellner in Restaurants ersetzen soll. Bei der Essensbestellung könnte ein KI-System – dargestellt durch einen Avatar auf dem Bildschirm – mithilfe von Spracherkennung und Techniken der natürlichen Intelligenz in Echtzeit kommunizieren und mithilfe von Computer Vision die Stimmung einer Person erfassen und auf der Grundlage der Wissensbasis Gerichte empfehlen.

Dazu muss der Avatar mehrere KI-Modelle – zum Beispiel Sprache, Bilderkennung und Kontext – gleichzeitig ausführen, was eine Herausforderung sein kann. Das Unternehmen hat das Unified Compute Framework entwickelt, das KI als Microservices modelliert, sodass Apps in einem Einzel- oder Hybridsystem ausgeführt werden können.

Nvidia hat es bereits getan zugrunde liegende KI-Systeme wie das Megatron-Turing Natural Language Generation-Modell – eine monolithische Transformatorsprache, die gemeinsam mit Microsoft entwickelt wurde. Das System wird nun auf seiner DGX AI-Hardware angeboten.

Omniverse Avatar ist auch die zugrunde liegende Technologie Drive-Concierge – ein KI-Assistent im Auto, der ein „persönlicher Concierge im Auto ist, der für Sie auf Abruf ist“, sagte Deepu Talla, Vizepräsident und General Manager von Embedded and Edge Computing.

KI-Systeme in Autos, die durch interaktive Charaktere dargestellt werden, können einen Fahrer und die Insassen des Autos anhand von Gewohnheiten, Stimme und Interaktionen verstehen. Dementsprechend kann das KI-System Telefonanrufe tätigen oder Empfehlungen zu Restaurants in der Nähe geben.

Mithilfe von Kameras und anderen Sensoren kann das System auch erkennen, ob ein Fahrer schläft, und ihn warnen, wenn er etwas im Auto vergisst. Die Nachrichten des KI-Systems werden durch interaktive Zeichen oder Schnittstellen auf Bildschirmen dargestellt.

Alter Hund, neue Tricks

Das Metaversum-Konzept ist nicht neu – es existierte schon durch Second Life von Linden Lab oder Spiele wie Die Sims. Nvidia hofft, proprietäre Mauern zu durchbrechen und ein einheitliches Metaversum zu schaffen, damit Benutzer theoretisch zwischen Universen wechseln können, die von verschiedenen Unternehmen erstellt wurden.

Während des Briefings erwähnte Nvidia nicht, dass es Facebook dabei helfen würde, seine Vision einer Zukunft rund um das Metaversum zu verwirklichen, das im Mittelpunkt seiner Umbenennung steht Meta.

Aber Nvidia drängt andere Unternehmen dazu, ihre 3D-Arbeiten über seine Software-Konnektoren auf die Omniverse-Plattform zu übertragen. Diese Liste enthält auch die von Esri ArcGIS cityEngine, mit dem städtische Umgebungen in 3D erstellt werden können, und die KI-Sprach-Engine von Replica Studio, die echte Stimmen für animierte Charaktere simulieren kann

„Was dies alles möglich macht, ist die Grundlage von USD oder Universal Scene Description. USD ist das HTML von 3D – ein wichtiges Element, weil es allen diesen Softwareprodukten ermöglicht, die virtuellen Welten zu nutzen, über die wir sprechen“, sagte Kerris. USD wurde von Pixar entwickelt, um 3D-Assets auf kollaborative Weise zu teilen.

Nvidia kündigte ebenfalls an Omniverse-Unternehmen – ein Abonnementangebot mit einem Software-Stack, der Unternehmen bei der Erstellung von 3D-Workflows unterstützt, die mit der Omniverse-Plattform verbunden werden können. Das Angebot kostet 9,000 US-Dollar pro Jahr und richtet sich an Branchen wie Technik und Unterhaltung. Es wird über Wiederverkäufer wie Dell, Lenovo, PNY und Supermicro erhältlich sein.

Das Unternehmen nutzt die Omniverse-Plattform auch, um synthetische Daten zu generieren, auf denen „digitale Zwillinge“ oder virtuelle Simulationen realer Objekte trainiert werden. Die ISAAC SIM kann Roboter durch synthetische Daten trainieren, die auf realen und virtuellen Informationen basieren. Die SIM ermöglicht die Einführung neuer Objekte, Kameraansichten und Beleuchtung, um benutzerdefinierte Datensätze zu erstellen, anhand derer Roboter trainiert werden können.

Ein Äquivalent im Automobilbereich ist Drive SIM, das durch simulierte Kameras realistische Szenen für autonomes Fahren erstellen kann. Die SIM berücksichtigt reale Daten, um KI-Modelle für autonomes Fahren zu trainieren. Die Kameraobjektivmodelle werden simuliert und berücksichtigen reale Phänomene wie Bewegungsunschärfe, Rolling Shutter und LED-Flimmern.

Nvidia arbeitet eng mit Sensorherstellern zusammen, um Drive-SIM-Daten genau zu reproduzieren. Laut Danny Shapiro, Nvidias Vizepräsident für Automotive, werden die Kamera-, Radar-, Lidar- und Ultraschallsensormodelle alle mithilfe der RTX-Grafiktechnologie pfadverfolgt.

Das Unternehmen hat einige Hardware-Ankündigungen in die Gesamterzählung von Omniverse integriert.

Treten Sie der neuen Generation bei

Das Jetson AGX Orin-Entwicklerboard der nächsten Generation wird sein wird den Herstellern im ersten Quartal nächsten Jahres zur Verfügung stehen. Es verfügt über 12 CPU-Kerne basierend auf Arm Cortex-A78-Designs, 32 GB LPDDR5-RAM und liefert eine Leistung von 200 TOPS (Tera Operations Per Second).

Das Fahren Sie Hyperion 8 ist eine Computerplattform für Autos, die über Dual Drive Orin SoCs verfügt und eine Leistung von bis zu 500 TOPS liefert. Die Plattform verfügt über 12 Kameras, neun Radargeräte, ein Lidar und 12 Ultraschallsensoren. Es kommt in Fahrzeugen zum Einsatz, die im Jahr 2024 produziert werden, und ist modular aufgebaut, sodass Autohersteller nur die Funktionen nutzen können, die sie benötigen. Autos mit älteren Nvidia-Rechnern können auf Drive Hyperion 8 aufgerüstet werden.

Nvidia kündigte dies ebenfalls an Quantum-2 Der InfiniBand-Schalter verfügt über 57 Milliarden Transistoren und wird im 7-nm-Prozess von Taiwan Semiconductor Manufacturing Co. hergestellt. Es kann 66.5 Milliarden Pakete pro Sekunde verarbeiten und verfügt über 64 Ports für Datenübertragungen mit 400 Gbit/s oder 128 Ports für Datenübertragungen mit 200 Gbit/s, heißt es.

Auch das Unternehmen meldete sich zu Wort Morpheus – ein Anfang des Jahres vorgestelltes KI-Framework, das es Cybersicherheitsanbietern ermöglicht, unregelmäßiges Verhalten in einem Netzwerk oder Rechenzentrum zu erkennen und Unternehmen darauf aufmerksam zu machen. Das Framework identifiziert subtile Änderungen bei Anwendungen, Benutzern oder Netzwerkverkehr, um Anomalien und verdächtiges Verhalten zu identifizieren.

Morpheus bezieht die benötigten Daten von Nvidias BlueField SmartNICs/Datenverarbeitungseinheiten, die durch ein Upgrade des DOCA SDK, das für Bluefield DPUs gilt, wie CUDA für Nvidias GPUs, mit neuen Leistungen ausgestattet wurden.

Das DOCA-Upgrade – Version 1.2 – kann auch „gemessene Cloud-Dienste erstellen, die den Ressourcenzugriff steuern, jede Anwendung und jeden Benutzer validieren [und] potenziell gefährdete Maschinen isolieren“. Mit DOCA 1.2 können Bluefield-Geräte außerdem Software- und Hardware-Authentifizierung authentifizieren, Datenkryptografie mit Leitungsgeschwindigkeit anwenden und verteilte Firewalls unterstützen, die auf der SmartNIC ausgeführt werden. Nvidia erzählte Das Register Palo Alto konnte eine fünffache Verbesserung der Firewall-Leistung feststellen, wenn die Tools im verteilten Modus auf SmartNICs ausgeführt wurden.

Apropos KI, auch der GPU-Gigant ergänzt sein Launchpad-Programm, bei dem es über Equinix-Rechenzentren in den USA, Europa, Japan und Singapur kurzfristigen Zugang zu KI-Hardware und -Software bieten wird. Bei den letztgenannten drei Standorten handelt es sich um die ersten Präsenzen von Launchpad außerhalb der USA, was Nvidia die Hoffnung gibt, dass seine Funktion als KI-Einstiegsrampe möglicherweise weiter verbreitet wird.

Ein weiteres neues Angebot ist eine neue Version des RIVA-Konversations-KI-Tools Ich sagte in der Lage zu sein, innerhalb eines Tages eine individuelle, menschenähnliche Stimme zu erstellen, basierend auf nur 30 Minuten Beispielrede. Nvidia glaubt, dass dies genau das Richtige für Organisationen ist, die benutzerdefinierte Sprachschnittstellen anbieten möchten. ®

Quelle: https://go.theregister.com/feed/www.theregister.com/2021/11/09/nvidia_metaverse/

Zeitstempel:

Mehr von Das Register