Next-Gen-VR: Meta präsentiert neue Forschung

Next-Gen-VR: Meta präsentiert neue Forschung

Auf der Siggraph 2022 gibt Meta Einblick in die aktuelle VR-Forschung. Ein Überblick über die interessantesten Vorträge.

Die alljährlich stattfindende Konferenz spezialisiert sich auf Computergrafik und interaktive Technik. Sie bietet eine Bühne für spannende Experimente, Prototypen und Forschungsprojekte sowie zahlreiche Vorträge, Diskussionsrunden und Kurse.

Die diesjährige Siggraph findet vom 8. bis 11. August in Vancouver statt.

___STEADY_PAYWALL___

Im Juni stellte Meta eine Reihe neuer VR-Brilllenprotoypen vor. Auf der Siggraph halten Forscher:innen der Reality Labs Vorträge zu diesen und verwandten Projekten.

HDR-VR: Der Starburst-Prototyp

Starburst ist der Codename von Metas HDR-Prototyp.

Das wuchtige VR-Headset hängt von der Decke und wird an zwei Griffen gehalten. Der Prototyp hat eine Lampe mit einer Leuchtkraft von 20.000 Nits verbaut. Zum Vergleich: Moderne HDR-Fernseher kommen auf mehrere tausende Nits, Quest 2 auf gerade mal 100 Nits. Der hohe Helligkeitsgrad kann laut Meta Lichtbedingungen in Innenräumen oder Nachtumgebungen realistisch simulieren.

Meta entwickelte diesen Prototyp, um herauszufinden, welche Wirkung HDR auf die Immersion hat. Die Forscher:innen gehen davon aus, dass HDR mehr zum visuellen Realismus beiträgt als hohe Auflösung und Gleitsicht.

Besucher:innen der Siggraph werden den Prototyp vor Ort ausprobieren können. Eine Forschungsarbeit verrät Einzelheiten zu Starbursts Technik und Funktionsweise.

Realistische VR-Durchsicht: NeuralPassthrough

Passthrough-Technik hat viele Vorteile gegenüber durchsichtiger AR-Optik, aber bringt eine ganze Reihe eigener Probleme mit sich.

Eines dieser Probleme ist, dass die Passthrough-Kameras nicht an der exakten räumlichen Position der Augen positioniert werden können. Die leicht versetzte Perspektive auf die Welt kann bei längerer Nutzung zu einer eigenen Form von Cyberkrankheit führen.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Metas Lösung ist eine KI-basierte Blicksynthese. Auf der Siggraph präsentieren die Forscher:innen eine für VR-Passthrough optimierte Methode, die perspektivisch korrekte Blickpunkte in Echtzeit und mit hoher visueller Wiedergabetreue synthetisiert.

Wer Näheres über den Siggraph-Vortrag erfahren möchte, kann sich in die wissenschaftliche Arbeit zum NeuralPassthrough einlesen.

Perfekte VR-Optik: Distortion Simulator

Linsen bringen Bildverzerrungen mit sich, die durch Software korrigiert werden muss.

Die Herausforderung liegt in der Entwicklung der Korrekturalgorithmen: Display-Forscher:innen müssen Linsen und Headsets zuerst herstellen, um entsprechende Software in der Praxis testen und anpassen zu können. Iterationen können daher Wochen und Monate in Anspruch nehmen.

Um dieses Problem zu lösen, entwickelten die Reality Labs einen Verzerrungsimulator. Mit ihm lassen sich verschiedene Linsen, Auflösungen und Sichtfeldweiten testen, ohne dass man ein Virtual-Reality-Headset bauen und aufsetzen muss.

Auf der Siggraph stellt Meta den Distortion Simulator vor. Eine wissenschaftliche Arbeit begleitet die Präsentation.

Codec-Avatare

Auch zu Meta fotorealistischen Telepräsenz-Avataren könnte es ein Update geben. Meta optimierte das eigene KI-Modell jüngst so weit, dass ein Smartphone-Scan des Gesichts ausreicht.

Forschungsleiter Yaser Sheikh hält auf der Siggraph einen Vortrag zu den neuesten Codec-Avatar-Fortschritten. Er wird dabei über die Systeme sprechen, die erforderlich sind, um Codec-Avatare visuell und akustisch zu trainieren, sowie über künftige Herausforderungen, um Metaverse-Telefonie "in großem Maßstab" zu erreichen.