Meta veröffentlicht „Erste Hand“-Demo, um Entwicklern Quest-Hand-Tracking zu präsentieren

Quellknoten: 1609386
Image

Meta hat diese Woche eine neue Demo-App mit dem Namen veröffentlicht Erste Hand um die Art von Erfahrungen zu demonstrieren, die Entwickler mit den Controller-losen Hand-Tracking-Tools des Unternehmens aufbauen können.

Controllerless Hand-Tracking ist zu diesem Zeitpunkt seit Jahren auf Quest verfügbar, und obwohl es eine zugänglichere Eingabemodalität ist als die Verwendung von Controllern, sind Controller immer noch die Haupteingabeform für die überwiegende Mehrheit der Spiele und Apps auf dem Headset.

Meta hat zunehmend darauf gedrängt, dass Entwickler Hand-Tracking als mehr als nur eine Neuheit betrachten, und zu diesem Zweck hat sie es getan haben Tools entwickelt, um Entwicklern die Nutzung der Funktion zu erleichtern. Aber was ist besser als ein guter praktische Beispiel?

Diese Woche veröffentlichte Meta eine neue Demo namens Erste Hand (benannt in Anlehnung an eine frühe Oculus-Demo-App namens Erster Kontakt). Obwohl die Demo hauptsächlich darauf ausgelegt ist, Entwicklern Hand-Tracking-Funktionen zu demonstrieren, Erste Hand kann von jedem kostenlos von App Lab heruntergeladen werden.

[Eingebetteten Inhalt]

Drüben im Oculus-Entwicklerblogerklärt das Team hinter der App, dass sie mit dem „Interaction SDK“ erstellt wurde, das Teil des „Präsenzplattform', eine Reihe von Tools, die entwickelt wurden, um Entwicklern dabei zu helfen, die Mixed-Reality- und Hand-Tracking-Funktionen von Quest zu nutzen. Erste Hand wird auch als Open-Source-Projekt veröffentlicht, das Entwicklern die Möglichkeit gibt, unter die Haube zu schauen und Code und Ideen zum Erstellen ihrer eigenen Hand-Tracking-Apps auszuleihen.

Das Entwicklungsteam erklärte einige der Überlegungen hinter dem Design der App:

First Hand zeigt einige der Hands-Interaktionen, die wir als die magischsten, robustesten und am einfachsten zu erlernenden gefunden haben, die aber auch auf viele Inhaltskategorien anwendbar sind. Insbesondere verlassen wir uns stark auf direkte Interaktionen. Mit den fortschrittlichen Direktberührungs-Heuristiken, die mit dem Interaction SDK aus der Box kommen (wie Berührungsbegrenzung, die verhindert, dass Ihr Finger versehentlich über Schaltflächen fährt), fühlt sich die Interaktion mit 2D-UIs und Schaltflächen in VR wirklich natürlich an.

Wir stellen auch einige der vom SDK angebotenen Grab-Techniken vor. Die direkte Interaktion mit der virtuellen Welt mit Ihren Händen hat etwas Viszerales, aber wir haben festgestellt, dass diese Interaktionen auch sorgfältig abgestimmt werden müssen, um wirklich zu funktionieren. In der App können Sie experimentieren, indem Sie mit einer Vielzahl von Objektklassen (klein, groß, eingeschränkt, zweihändig) interagieren und sogar einen Stein zerquetschen, indem Sie ihn fest genug zusammendrücken.

Das Team teilte auch 10 Tipps für Entwickler, die das Interaction SDK in ihren Quest-Apps nutzen möchten, sieh sie dir im Beitrag des Entwicklers an.

Zeitstempel:

Mehr von Straße nach VR