Cette page a été traduite en utilisant l'IA et l'apprentissage automatique.

Alors que les prochains Vive Cosmos de HTC et Oculus' Quest sont des lancements plus attrayants pour les cherchant à investir dans la réalité virtuelle bientôt, HTC a lancé une autre technologie fascinante avant-gardiste ici au CES 2019.

Le Vive Pro Eye apporte un suivi oculaire au casque de niveau professionnel déjà lancé. Et nous devons dire, c'est l'avenir de la VR et il sera lancé dans le « deuxième trimestre » de 2019. Naturellement, nous avons eu un coup de main alors voici ce qu'on pensait.

L' Eye utilise des manettes Vive standard, mais le casque est similaire à celui du Vive Pro - il y a deux caméras à l'avant - et peut être câblé ou, éventuellement, sans fil. The Eye a besoin d'un PC pour travailler avec vous comme vous le souhaitez.

Comment ça marche

  • Une courte séance de formation
  • Vous pouvez contrôler les menus
  • Rendu foveated à partir de Nvidia

Bien que les contrôleurs soient toujours nécessaires pour diverses tâches, nous avons été guidés à travers un ensemble de démos qui indiquaient vraiment que vos yeux pouvaient contrôler ce que vous voulez faire, laissant vos mains libres pour faire d'autres choses et agir plus naturellement. Vous pouvez même contrôler les menus simplement en fixant vos yeux sur l'option que vous voulez. Ça marche vraiment.

Notre démo préférée était très différente des autres — le jeu Home Run Derby VR de la Major League Baseball (MLB) où vous pouvez contrôler tous les menus en utilisant vos yeux pendant que vous tenez et maniez une batte de baseball. C'était la seule démo de jeu pure disponible.

Pocket-lint

Vive a travaillé avec Nvidia pour activer le rendu foveated sur le casque. Cela signifie qu'il rend différentes parties de l'image à une résolution inférieure (votre vision périphérique). L'

endroit où vous regardez est rendu à une résolution plus élevée. Vous ne le remarquez pas parce que votre vision périphérique n'est pas aussi bonne.

HTC

Chaque démo a commencé de la même façon, avec un processus d'étalonnage très court. Tout ce que vous avez à faire est de vous concentrer sur quelques points bleus qui apparaissent sur l'écran et vous êtes prêt à partir. Il y a aussi la possibilité d'ajuster votre distance interpupillaire.

C' est une expérience rafraîchissante parce que tout ce que vous avez à faire est de regarder au bon endroit comme vous êtes invité à le faire.

Les démos que nous avons vues

  • Lockheed Martin scénario donne un dégustateur de voler un jet
  • Apprendre à parler en public - sans personne présent
  • BMW démo de marketing suit ce que les gens voient

Bon nombre des scénarios que nous avons vus concernaient des situations de formation. Il y a eu une démo en public où vous avez pu apprendre à devenir un meilleur orateur tandis qu'une autre, développée par Lockheed Martin, nous a donné un aperçu de ce que c'était de décoller dans un avion de chasse.

La réalité virtuelle est idéale pour les scénarios où il est impossible de vous mettre dans une situation en direct particulière. La démo en public Ovation n'a pas utilisé la technologie de suivi des yeux, mais c'est toujours un bon exemple de l'utilisation de la réalité virtuelle - vous n'allez pas rassembler 100 personnes juste pour vous entendre vous entraîner.

La démo d'avion Lockheed Martin est conçue pour qu'un entraîneur puisse voir où se trouvait sa charge - sont-ils attentifs aux bonnes choses, en d'autres termes ?

Pocket-lint

De même, une démonstration de marketing BMW - la M Virtual Experience - peut montrer où les clients avaient interagi avec ce qui était sur offre.

Premières impressions

Vive Pro Eye est clairement destiné à des utilisations professionnelles, mais il pointe la voie vers un avenir passionnant pour la réalité virtuelle — à savoir où l'ordinateur ou le casque peut comprendre ce que vous regardez et réagir en conséquence. Il sera intéressant d'entendre combien cela coûtera au cours des prochains mois.

Dans son annonce, HTC a également déclaré que l'ajout d'un suivi oculaire à Vive Pro aiderait les développeurs à mieux comprendre les utilisateurs en suivant les mouvements oculaires — là où les gens regardent — et il y a beaucoup à dire pour cela.

Il y a aussi un argument d'accessibilité où les gens sont capables de bouger les yeux mais n'ont pas le contrôle de leurs mains.