Next-Gen-VR: Meta präsentiert neue Forschung
Auf der Siggraph 2022 gibt Meta Einblick in die aktuelle VR-Forschung. Ein Überblick über die interessantesten Vorträge.
Die alljährlich stattfindende Konferenz spezialisiert sich auf Computergrafik und interaktive Technik. Sie bietet eine Bühne für spannende Experimente, Prototypen und Forschungsprojekte sowie zahlreiche Vorträge, Diskussionsrunden und Kurse.
Die diesjährige Siggraph findet vom 8. bis 11. August in Vancouver statt.
___STEADY_PAYWALL___Im Juni stellte Meta eine Reihe neuer VR-Brilllenprotoypen vor. Auf der Siggraph halten Forscher:innen der Reality Labs Vorträge zu diesen und verwandten Projekten.
Inhalt
HDR-VR: Der Starburst-Prototyp
Starburst ist der Codename von Metas HDR-Prototyp.
Das wuchtige VR-Headset hängt von der Decke und wird an zwei Griffen gehalten. Der Prototyp hat eine Lampe mit einer Leuchtkraft von 20.000 Nits verbaut. Zum Vergleich: Moderne HDR-Fernseher kommen auf mehrere tausende Nits, Quest 2 auf gerade mal 100 Nits. Der hohe Helligkeitsgrad kann laut Meta Lichtbedingungen in Innenräumen oder Nachtumgebungen realistisch simulieren.
Meta entwickelte diesen Prototyp, um herauszufinden, welche Wirkung HDR auf die Immersion hat. Die Forscher:innen gehen davon aus, dass HDR mehr zum visuellen Realismus beiträgt als hohe Auflösung und Gleitsicht.
Besucher:innen der Siggraph werden den Prototyp vor Ort ausprobieren können. Eine Forschungsarbeit verrät Einzelheiten zu Starbursts Technik und Funktionsweise.
Realistische VR-Durchsicht: NeuralPassthrough
Passthrough-Technik hat viele Vorteile gegenüber durchsichtiger AR-Optik, aber bringt eine ganze Reihe eigener Probleme mit sich.
Eines dieser Probleme ist, dass die Passthrough-Kameras nicht an der exakten räumlichen Position der Augen positioniert werden können. Die leicht versetzte Perspektive auf die Welt kann bei längerer Nutzung zu einer eigenen Form von Cyberkrankheit führen.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Metas Lösung ist eine KI-basierte Blicksynthese. Auf der Siggraph präsentieren die Forscher:innen eine für VR-Passthrough optimierte Methode, die perspektivisch korrekte Blickpunkte in Echtzeit und mit hoher visueller Wiedergabetreue synthetisiert.
Wer Näheres über den Siggraph-Vortrag erfahren möchte, kann sich in die wissenschaftliche Arbeit zum NeuralPassthrough einlesen.
Perfekte VR-Optik: Distortion Simulator
Linsen bringen Bildverzerrungen mit sich, die durch Software korrigiert werden muss.
Die Herausforderung liegt in der Entwicklung der Korrekturalgorithmen: Display-Forscher:innen müssen Linsen und Headsets zuerst herstellen, um entsprechende Software in der Praxis testen und anpassen zu können. Iterationen können daher Wochen und Monate in Anspruch nehmen.
Um dieses Problem zu lösen, entwickelten die Reality Labs einen Verzerrungsimulator. Mit ihm lassen sich verschiedene Linsen, Auflösungen und Sichtfeldweiten testen, ohne dass man ein Virtual-Reality-Headset bauen und aufsetzen muss.
Auf der Siggraph stellt Meta den Distortion Simulator vor. Eine wissenschaftliche Arbeit begleitet die Präsentation.
Codec-Avatare
Auch zu Meta fotorealistischen Telepräsenz-Avataren könnte es ein Update geben. Meta optimierte das eigene KI-Modell jüngst so weit, dass ein Smartphone-Scan des Gesichts ausreicht.
Forschungsleiter Yaser Sheikh hält auf der Siggraph einen Vortrag zu den neuesten Codec-Avatar-Fortschritten. Er wird dabei über die Systeme sprechen, die erforderlich sind, um Codec-Avatare visuell und akustisch zu trainieren, sowie über künftige Herausforderungen, um Metaverse-Telefonie "in großem Maßstab" zu erreichen.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.