Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Auf der Siggraph 2022 gibt Meta Einblick in die aktuelle VR-Forschung. Ein Überblick über die interessantesten Vorträge.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Die alljährlich stattfindende Konferenz spezialisiert sich auf Computergrafik und interaktive Technik. Sie bietet eine Bühne für spannende Experimente, Prototypen und Forschungsprojekte sowie zahlreiche Vorträge, Diskussionsrunden und Kurse.
Die diesjährige Siggraph findet vom 8. bis 11. August in Vancouver statt.
___STEADY_PAYWALL___
Im Juni stellte Meta eine Reihe neuer VR-Brilllenprotoypen vor. Auf der Siggraph halten Forscher:innen der Reality Labs Vorträge zu diesen und verwandten Projekten.
Inhalt
HDR-VR: Der Starburst-Prototyp
Starburst ist der Codename von Metas HDR-Prototyp.
Das wuchtige VR-Headset hängt von der Decke und wird an zwei Griffen gehalten. Der Prototyp hat eine Lampe mit einer Leuchtkraft von 20.000 Nits verbaut. Zum Vergleich: Moderne HDR-Fernseher kommen auf mehrere tausende Nits, Quest 2 auf gerade mal 100 Nits. Der hohe Helligkeitsgrad kann laut Meta Lichtbedingungen in Innenräumen oder Nachtumgebungen realistisch simulieren.
Meta entwickelte diesen Prototyp, um herauszufinden, welche Wirkung HDR auf die Immersion hat. Die Forscher:innen gehen davon aus, dass HDR mehr zum visuellen Realismus beiträgt als hohe Auflösung und Gleitsicht.
Eines dieser Probleme ist, dass die Passthrough-Kameras nicht an der exakten räumlichen Position der Augen positioniert werden können. Die leicht versetzte Perspektive auf die Welt kann bei längerer Nutzung zu einer eigenen Form von Cyberkrankheit führen.
Metas Lösung ist eine KI-basierte Blicksynthese. Auf der Siggraph präsentieren die Forscher:innen eine für VR-Passthrough optimierte Methode, die perspektivisch korrekte Blickpunkte in Echtzeit und mit hoher visueller Wiedergabetreue synthetisiert.
Linsen bringen Bildverzerrungen mit sich, die durch Software korrigiert werden muss.
Die Herausforderung liegt in der Entwicklung der Korrekturalgorithmen: Display-Forscher:innen müssen Linsen und Headsets zuerst herstellen, um entsprechende Software in der Praxis testen und anpassen zu können. Iterationen können daher Wochen und Monate in Anspruch nehmen.
Um dieses Problem zu lösen, entwickelten die Reality Labs einen Verzerrungsimulator. Mit ihm lassen sich verschiedene Linsen, Auflösungen und Sichtfeldweiten testen, ohne dass man ein Virtual-Reality-Headset bauen und aufsetzen muss.
Forschungsleiter Yaser Sheikh hält auf der Siggraph einen Vortrag zu den neuesten Codec-Avatar-Fortschritten. Er wird dabei über die Systeme sprechen, die erforderlich sind, um Codec-Avatare visuell und akustisch zu trainieren, sowie über künftige Herausforderungen, um Metaverse-Telefonie „in großem Maßstab“ zu erreichen.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.