HTC Vive: Entwicklerkit mit Eye-Tracking, Plugins für Unity und Unreal Engine

HTC Vive: Entwicklerkit mit Eye-Tracking, Plugins für Unity und Unreal Engine

Update vom 23. Juli:

Anzeige
Anzeige

In einer neuerlichen Pressemitteilung bestätigt SMI eine Entwicklerversion von HTC Vive mit integriertem Eye-Tracking. Dafür wurden zwei kleine Kameras und eine Quelle für Infrarotlicht in das Standardgehäuse der VR-Brille verbaut. Zuvor integrierte SMI eine Eye-Tracking-Lösung bereits in die zweite Entwicklerversion von Oculus Rift und in Samsungs mobile VR-Brille Gear VR. Das Entwicklungsumgebung basiert auf C#/C++ und kommt mit einem Plugin für Middleware wie Unity, Unreal Engine und WorldViz Vizard.

SMI benennt die Einsatzszenarien von Eye-Tracking in VR-Brillen wie folgt:

___STEADY_PAYWALL___
  • Foveated rendering: Bessere Grafik bei geringerem Performanceaufwand.
  • Blicksteuerung: Das Interface lässt sich allein mit Blicken bedienen.
  • Personalisierte Kalibrierung des Displays, abgestimmt auf den jeweiligen VR-Brillenträger.
  • Social VR: Besseres Präsenzgefühl, speziell wenn virtuelle Avatare miteinander kommunizieren.
  • Neue Analysemöglichkeiten, die von Spieleentwickern, Unternehmen und Forschern verwendet werden können.

Update vom 21. Juli:

Nvidia zeigt eine erste Videodemo der neuen Foveated-Rendering-Engine. Visuell soll diese so subtil arbeiten, dass nicht einmal die Ingenieure, die sie konzipierten, die reduzierten Details in der Peripherie bewusst wahrnehmen können. Die freigewordene Performance kann dazu genutzt werden, die Bildinhalte im direkten Sichtfeld des Nutzers mit noch mehr Details zu berechnen. Die Performance soll um den Faktor zwei bis drei besser sein, wenn der Rendertrick aktiv ist. Details zu dem Algorithmus gibt es in diesem Paper.

Ursprünglicher Artikel:

Das deutsche Unternehmen Sensomotoric Instruments (SMI) und Nvidia haben eine Lösung fürs Eye-Tracking in HTC Vive integriert. Eine erste Demo soll kommende Woche auf der Siggraph gezeigt werden.

Auf der Technologiemesse CES im Januar präsentierte SMI erstmals eine Lösung für das Eye-Tracking, um Augenbewegungen mit bis zu 250 Hz zu messen. Nun hat das Unternehmen einen prominenten Partner für die weitere Vermarktung gefunden. Gemeinsam mit Nvidia soll auf der Siggraph-Konferenz Anfang nächster Woche eine neue Eye-Tracking-Demo samt "Foveated Rendering" gezeigt werden.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

In Kombination mit der speziellen Rendertechnologie erzielt die Messung der Augenbewegungen die volle Wirkung. Sie wertet aus, welchen Punkt der VR-Brillenträger gerade fokussiert und berechnet exakt diesen Bereich mit allen Details und voller Auflösung. Das betrifft etwa 20 Prozent der Bildmitte. Weitere 20 Prozent des Bildes können in mittlerer Auflösung und die restlichen 60 Prozent mit geringer Auflösung berechnet werden. Diese Art des Renderings orientiert sich am natürlichen Sehverhalten des menschlichen Auges, das nur in einem sehr kleinen Bereich - der Fovea - wirklich scharf sieht. Die Peripherie bleibt unscharf.

Eye-Tracking pusht Virtual-Reality-Technologie auf das nächste Level

Der größte Vorteil der Rendertechnologie: Sie spart ordentlich Rechenleistung und kann laut SMI die Performance um den Faktor zwei bis vier verbessern. So könnten in Zukunft auch herkömmliche Notebooks oder ältere Rechner anspruchsvolle VR-Erfahrungen darstellen. Mobile VR-Brillen, die von Haus aus mit eher schwachen Prozessoren ausgestattet sind, würden enorm von der neuen Technologie profitieren. In Kombination mit High-End-Rechnern verspricht das Foveated Rendering besonders glaubhafte Darstellungen. Und: Laut Ingenieuren der Columbia-Universität könnte ein dezenter Tunnelblick der störenden VR-Übelkeit vorbeugen.

SMI entwickelt neben der Hardware auch den Rendering-Algorithmus. Dieser legt fest, ab welchem Punkt die Auflösung nach außen hin reduziert werden kann, ohne dass der Nutzer den Qualitätsverlust bemerkt. Zuvor untersuchte Nvidia anhand einer Nutzerstudie, wie weit das periphere Sichtfeld unter der VR-Brille reicht. Die Ergebnisse bildeten die Grundlage für die Entwicklung des Algorithmus.

Christian Villwock von SMI bezeichnet die Technologie als "Consumer-ready" und geht davon aus, dass sie bereits in die zweite Generation VR-Brillen integriert wird. Neben dem potenziellen Zugewinn an Performance bietet Eye-Tracking neue Möglichkeiten in den Bereichen Social-VR (Augenkontakt), Interfaces und Analytics. Oculus-Rift-Erfinder Palmer Luckey bezeichnete Eye-Tracking in der Vergangenheit als "Schlüsseltechnologie" für die Branche.

Schüsseltechnologie oder Analytics-Gefahr? Diskutiere mit anderen VR-Fans im VRforum.

| Source: SMI | Featured Image: SMI