Diese Seite wurde mit KI und maschinellem Lernen übersetzt.

(Pocket-lint) - Während HTCs bevorstehendes Vive Cosmos und Oculus Quest für diejenigen, die bald in VR investieren möchten, auffälligere Produkte sind, hat HTC hier auf der CES 2019 einige andere faszinierende zukunftsweisende Technologien vorgestellt.

Das Vive Pro Eye bietet Eye-Tracking für das zuvor eingeführte Pro-Level-Headset. Und wir müssen sagen, es ist die Zukunft von VR und es wird im „zweiten Quartal“ 2019 starten. Natürlich haben wir es versucht, also hier ist, was wir dachten.

Das Eye verwendet Standard-Vive-Handsteuerungen, aber das Headset ähnelt dem des Vive Pro - auf der Vorderseite befinden sich zwei Kameras - und kann verkabelt oder eventuell drahtlos sein. Für das Auge ist ein PC erforderlich, mit dem Sie wie erwartet zusammenarbeiten können.

Wie es funktioniert

  • Eine kurze Trainingseinheit
  • Sie können Menüs steuern
  • Foveated Rendering von Nvidia

Obwohl Controller für verschiedene Aufgaben immer noch erforderlich sind, wurden wir durch eine Reihe von Demos geführt, die wirklich zeigten, dass Ihre Augen steuern können, was Sie tun möchten, und Ihre Hände frei lassen, um andere Dinge zu tun und natürlicher zu handeln. Sie können Menüs sogar steuern, indem Sie Ihre Augen auf die gewünschte Option richten. Es funktioniert wirklich.

Unsere Lieblingsdemo war ganz anders als die anderen - das Home Run Derby VR-Spiel der Major League Baseball (MLB), bei dem Sie alle Menüs mit Ihren Augen steuern können, während Sie einen Baseballschläger halten und führen. Es war die einzige reine Gaming-Demo.

Pocket-lint

Vive hat mit Nvidia zusammengearbeitet, um das foveated Rendering auf dem Headset zu ermöglichen. Dies bedeutet, dass verschiedene Teile des Bildes mit einer niedrigeren Auflösung (Ihrer peripheren Sicht) gerendert werden.

Wo Sie suchen, wird mit einer höheren Auflösung gerendert. Sie bemerken es nicht, weil Ihre periphere Sicht nicht so gut ist.

HTC

Jede Demo wurde auf die gleiche Weise mit einem sehr kurzen Kalibrierungsprozess gestartet. Alles, was Sie tun müssen, ist sich auf ein paar blaue Punkte zu konzentrieren, die auf dem Bildschirm erscheinen, und schon kann es losgehen. Es besteht auch die Möglichkeit, den Pupillenabstand anzupassen.

Es ist eine erfrischende Erfahrung, denn alles, was Sie tun müssen, ist, an der richtigen Stelle zu suchen, wenn Sie dazu aufgefordert werden.

Die Demos, die wir gesehen haben

  • Das Lockheed Martin-Szenario gibt einen Vorgeschmack auf das Fliegen eines Jets
  • In der Öffentlichkeit sprechen lernen - ohne dass jemand anwesend ist
  • Die BMW Marketing Demo verfolgt, was die Leute sehen

Viele der Szenarien, die wir gesehen haben, betrafen Trainingssituationen. Es gab eine öffentlich sprechende Demo, in der Sie lernen konnten, wie man ein besserer Redner wird, während eine andere, die von Lockheed Martin entwickelt wurde, uns einen Vorgeschmack darauf gab, wie es ist, in einem Kampfjet zu starten.

VR eignet sich hervorragend für Szenarien, in denen es unmöglich ist, sich in eine bestimmte Live-Situation zu versetzen. In der öffentlich sprechenden Demo von Ovation wurde die Eye-Tracking-Technologie nicht verwendet, aber es ist immer noch ein gutes Beispiel dafür, wo VR verwendet werden kann - Sie werden nicht 100 Leute zusammenbringen, nur um sich selbst üben zu hören.

Die Flugzeugdemo von Lockheed Martin ist so konzipiert, dass ein Trainer sehen kann, wohin seine Ladung gesucht hat - achten sie also auf die richtigen Dinge?

Pocket-lint

Ebenso kann eine BMW Marketing-Demo - die M Virtual Experience - zeigen, wo Kunden mit dem Angebot interagiert haben.

Erste Eindrücke

Vive Pro Eye ist eindeutig auf den professionellen Einsatz ausgerichtet, weist jedoch den Weg in eine aufregende Zukunft für VR - nämlich wo der Computer oder das Headset verstehen kann, was Sie sehen, und entsprechend reagieren kann. Es wird interessant sein zu hören, wie viel es in den kommenden Monaten kosten wird.

In seiner Ankündigung sagte HTC auch, dass das Hinzufügen von Eye Tracking zu Vive Pro Entwicklern helfen würde, Benutzer besser zu verstehen, indem sie Augenbewegungen verfolgen - wohin die Leute schauen - und es gibt viel zu sagen.

Es gibt auch ein Argument für Barrierefreiheit, bei dem Menschen ihre Augen bewegen können, aber keine genaue Kontrolle über ihre Hände haben.

Schreiben von Dan Grabham.