Meta lança demonstração de 'primeira mão' para mostrar rastreamento manual de missões para desenvolvedores

Nó Fonte: 1609386
imagem

Meta esta semana lançou um novo aplicativo de demonstração chamado Primeira mão para mostrar o tipo de experiência que os desenvolvedores podem construir com as ferramentas de rastreamento manual sem controlador da empresa.

O rastreamento manual sem controlador está disponível na Quest há anos e, embora seja uma modalidade de entrada mais acessível do que o uso de controladores, os controladores ainda são a principal forma de entrada para a grande maioria dos jogos e aplicativos no fone de ouvido.

A Meta tem pressionado cada vez mais os desenvolvedores a adotar o rastreamento manual como mais do que uma novidade e, para esse fim, vem construindo ferramentas para tornar mais fácil para os desenvolvedores aproveitarem o recurso. Mas o que é melhor do que um bom mãos em exemplo?

Esta semana, a Meta lançou uma nova demo exclusivamente construída em torno do rastreamento manual, chamada Primeira mão (nomeado em referência a um aplicativo de demonstração inicial do Oculus chamado Primeiro Contato). Embora a demonstração seja amplamente projetada para mostrar recursos de rastreamento manual aos desenvolvedores, Primeira mão está disponível para qualquer um baixar gratuitamente no App Lab.

[Conteúdo incorporado]

Mais no blog do desenvolvedor Oculus, a equipe por trás do aplicativo explica que ele foi construído com o 'Interaction SDK' que faz parte do 'Plataforma de Presença', um conjunto de ferramentas criado para ajudar os desenvolvedores a aproveitar a realidade mista e os recursos de rastreamento manual da Quest. Primeira mão também é lançado como um projeto de código aberto, dando aos desenvolvedores uma maneira de olhar por baixo do capô e emprestar código e ideias para criar seus próprios aplicativos de rastreamento manual.

A equipe de desenvolvimento explicou algumas das ideias por trás do design do aplicativo:

First Hand mostra algumas das interações do Hands que consideramos as mais mágicas, robustas e fáceis de aprender, mas que também são aplicáveis ​​a muitas categorias de conteúdo. Notavelmente, dependemos muito de interações diretas. Com as heurísticas avançadas de toque direto que vêm de fábrica com o Interaction SDK (como a limitação de toque, que impede que seu dedo atravesse acidentalmente os botões), interagir com UIs 2D e botões em VR parece realmente natural.

Também mostramos várias das técnicas de captura oferecidas pelo SDK. Há algo visceral em interagir diretamente com o mundo virtual com as mãos, mas descobrimos que essas interações também precisam de um ajuste cuidadoso para realmente funcionar. No aplicativo, você pode experimentar interagindo com uma variedade de classes de objetos (pequeno, grande, restrito, com as duas mãos) e até mesmo esmagar uma pedra apertando-a com força suficiente.

A equipe também compartilhou 10 dicas para desenvolvedores que desejam usar o Interaction SDK em seus aplicativos Quest, confira-os no post do desenvolvedor.

Carimbo de hora:

Mais de Estrada para VR