Warum ist das Raumscanning der Quest 3 so umständlich? Das sagt der Technikchef

Warum unterstützt Quest 3 kein automatisches Raumscanning wie andere MR-Headsets? Metas Technikchef erläutert die Hürden.
Das manuelle Raumscanning ist eine der größten Hürden für Mixed Reality auf Meta Quest 3 und 3S. Einerseits muss der Raum vorab eingescannt werden, was je nach Komplexität des Raums einige Minuten in Anspruch nehmen kann. Andererseits ist der 3D-Scan statisch und muss bei Veränderungen im Raum manuell nachbearbeitet werden. Oft ist sogar ein erneuter 3D-Scan erforderlich.
Die Umständlichkeit des Raumscannings kann auf Nutzer:innen abschreckend wirken. Nach einem langen Arbeitstag fehlt oft die Motivation, erst den Raum einzuscannen, bevor man überhaupt mit dem Spielen beginnen kann.
In seiner jüngsten Frage-Antwort-Runde auf Instagram erklärt Metas Technikchef Andrew Bosworth, warum Meta Quest (noch) kein automatisches und kontinuierliches Raumscanning unterstützt und stellt in Aussicht, dass solches eines Tages kommen wird:
Da gibt es zwei verschiedene Aspekte.
Der erste betrifft schlicht die Rechenleistung. Es ist aufwendig, ständig neu zu berechnen, was in der Umgebung passiert. Die dafür benötigte Rechen- und Wärmeentwicklungskapazität könnten wir stattdessen für andere Dinge nutzen – und wir glauben, dass euch das womöglich mehr bringt.
Der zweite Aspekt ist modellbedingt schwieriger. Wenn ich die Umgebung vorher berechnet habe und sie der Anwendung übergebe, kann diese viele Vorhersagen über diese Umgebung treffen.
Wenn sich die Umgebung jedoch ständig verändert, muss die Anwendung viel dynamischer sein – denn vielleicht wird der Tisch verschoben, das Sofa bewegt sich – und was macht man dann als Folge daraus?
Die Wahrheit ist: Die meisten dieser Erfahrungen finden heute noch in statischen Umgebungen statt. Das wird sich mit der Zeit ändern. Ich denke, wir werden das schaffen, es wird mit der Zeit ein kontinuierlicher Prozess werden.
MIXED.de ohne Werbebanner
Zugriff auf mehr als 9.000 Artikel
Kündigung jederzeit online möglich
Wir haben in der Vergangenheit bereits mit solchen Ansätzen experimentiert – etwa wenn jemand die Begrenzung überschreitet. Aber letztlich sind es immer Kompromisse: einerseits gegen die heutige Rechenleistung, andererseits gegen das Modell, das Entwickler:innen langfristig nutzen.
Vielleicht mit Meta Quest 4?
Die Frage des Instagram-Nutzers ist berechtigt, denn Geräte wie die Apple Vision Pro unterstützen automatisches und kontinuierliches Raumscanning.
Der Unterschied liegt darin, dass die Apple Vision Pro einen LiDAR-Sensor für das Raumscanning einsetzt, während sich die Meta Quest 3 und 3S stärker auf rechenintensive Computer-Vision-Algorithmen verlassen.
Es gibt vonseiten von VR-Entwicklern Versuche, eigene Lösungen für automatisches und kontinuierliches Raumscanning in Mixed-Reality-Apps zu implementieren, doch diese bringen erhebliche Performance-Kosten mit sich.
Sollte Meta Quest 4 mit einem leistungsfähigeren Tiefensensor und mehr Rechenleistung ausgestattet werden, könnte das bisherige Raumscanning der Vergangenheit angehören – allerdings würde ersteres auch den Preis des Geräts erhöhen.
Anfang des Jahres deutete Meta an, dass es daran arbeitet, das Raumscanning zu automatisieren. Ein konkretes Zeitfenster wurde jedoch nicht genannt.
Ihr interessiert euch für VR und AR? Diskutiert mit uns auf Instagram oder Facebook oder teilt eure Meinung in den Kommentaren. Für Feedback, Themenvorschläge oder andere Ideen schickt uns bitte eine E-Mail an hallo@mixed.de oder hüpft auf unseren Discord-Server.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.