Ein von Facebook Reality Labs und Oculus entwickeltes KI-Rendering soll die Virtual Reality visuell realistischer darstellen.

Zukünftige VR-Brillen wie Oculus’ Half-Dome-Prototyp sollen mehrere Fokusebenen darstellen können, zum Beispiel für nahe und weit entfernte Objekte. Besagtem Half-Dome-Prototyp gelingt das über ein bewegliches Display, das passend zum Fokuspunkt des Nutzers nach vorne oder hinten verschoben wird, sodass das Bild stets scharf und entlang der Blickrichtung eingestellt ist.

Nun ist es für einen realistischeren Bildeindruck nicht damit getan, die Fokusebene physisch zu justieren. Die Darstellung der VR-Szene muss ebenfalls passen: Schaut man auf ein nahes Objekt, muss der Hintergrund unscharf erscheinen. Blickt man in die Ferne, sollte der Vordergrund unscharf werden. So ist es auch in der Realität.

Diesen Effekt kann man zwar mit klassischen Renderverfahren darstellen, allerdings sind diese rechenintensiv. Das ist speziell bei hochauflösenden VR-Brillen ein Problem, bei denen der Fokuswechsel in hohem Tempo und ohne spürbare Latenz passieren muss. Hinzu kommt, dass herkömmliche Renderverfahren laut Facebook mit Darstellungsfehlern wie Artefakten zu kämpfen haben.

KI-Unschärfe

Den künstlichen Unschärfeeffekt kann Facebook mit “Deep Focus” laut eigenen Angaben um den Faktor zehn effizienter erzeugen.

Nicht nur das: Der Algorithmus soll grundlegend für alle Oculus-Apps funktionieren. Er wertet dieselben Bildparameter aus wie Oculus’



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.