Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Das Handtracking für Oculus Quest ist ein Zukunftsprojekt. Jetzt zeigt ein Microsoft-Entwickler, wie es noch besser werden könnte.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Im Dezember veröffentlichte Oculus ein experimentelles Handtracking-Update für Oculus Quest: Sobald Nutzer ihre Hände in das Sichtfeld der Kameras schieben, werden sie zum Eingabegerät. Zwar ist die Handerfassung leicht verzögert – es reicht, um Menüs zu bedienen, ein virtuelles Klavier könnte man jedoch nicht damit spielen.
Mit dem Quest-Handtracking können Nutzer beispielsweise durch Menüs navigieren, ohne Controller in die Hand nehmen zu müssen. Allerdings müssen sie es zuvor manuell aktivieren. Bild: Oculus
Das ist allerdings Gemecker auf hohem Niveau, denn: Technisch ist es ein kleines Wunder, dass Echtzeit-Handtracking überhaupt auf dem Smartphone-Chip der Quest-Brille läuft, der ja gleichzeitig noch VR-Anwendungen berechnen muss. Facebook erreichte diese Tracking-Effizienz mit KI-Technik.
___STEADY_PAYWALL___
Etwas nervig ist es jedoch, dass Nutzer im Menü manuell zwischen Hand- und Controllertracking umschalten müssen. Anstatt also die Hände als Standardeingabe und die Controller als erweitertendes VR-Werkzeug zu haben, muss man sich vorab überlegen, ob man jetzt mit den Händen durchs Menü navigieren will oder doch die Quest-Controller braucht. Am Ende benutzt man dann meist die Controller, weil man sie früher oder später sowieso in die Hand nehmen muss.
Mixed-Reality-Entwickler Eric Provencher zeigt jetzt in Microsofts Programmiersoftware Mixed Reality Toolkit für Unity, wie es besser gehen könnte: Er adaptierte die Handsteuerungsdemo für Hololens 2 (Vorabtest) für Oculus Quest und integrierte einen fließenden Übergang von Hand- auf Controllersteuerung.
Für den Hand- auf Controllerwechsel muss zuvor ein Knopf am Controller gedrückt werden. Um dann wieder zu den Händen zurückzukehren, steht leider wieder der bekannte Umweg über das Oculus-Systemmenü an. Die Königslösung wäre natürlich, dass Hände und Controller immer gleichzeitig erfasst würden – so entstünden neue Anwendungsszenarien.
Provencher zeigt noch eine zweite Demo: Hier erweitert er die Oculus-Hände um Menüs, die erscheinen, sobald man die Hand mit der Handinnenfläche nach oben dreht. Entwickler finden das Mixed Reality Toolkit bei Github.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.