Auf der Siggraph Fachkonferenz für Computertechnologie zeigten die Entwickler von Ninja Theory gemeinsam mit Epic Games, wie man Gesichtsmimik in Echtzeit erfassen und digitalisieren kann.

Kabetec VR-Brille

Die Mimik virtueller Darsteller hat in den letzten Jahren massiv an Bedeutung gewonnen. Reichten zu den Anfangszeiten der Videospiele noch ein paar grob aufgelöste Pixelaugen, um digitale Charaktere lebendig werden zu lassen, möchten es cineastisch inszenierte Games heutzutage mit großen Hollywood-Streifen aufnehmen. Dafür müssen selbst feine Details der Gesichtsmuskulatur modelliert werden, um Emotionen so überzeugend wie bei echten Menschen zu vermitteln.

Die Echtzeit-Kinematographie soll virtuelle Welten lebendig machen

Ein neues Verfahren, umgesetzt mit der Unreal Engine, ermöglicht es in Echtzeit, die Gesichtsmimik einer realen Schauspielerin aufzuzeichnen, zu digitalisieren und auf einen virtuellen Avatar zu übertragen. Das vereinfacht vorerst nur die Produktion von überzeugenden Filmsequenzen für Videospiele. Die Technologie dahinter hat aber langfristig auch Implikationen für Virtual Reality. Denn die Echtzeit-Animation ebnet den Weg für glaubhafte digitale Menschen.

GIF Das Entwicklerstudio Ninja Theory überträgt reale Darstellungen in Echtzeit auf virtuelle Charaktere.

Beispielsweise könnten Darbietungen von Schauspielern und Künstlern live in virtuelle Umgebungen übertragen werden. Vorstellbar wäre ein virtuelles Theater ohne Sitzplatzbeschränkung, bei dem jeder Nutzer immer in der ersten Reihe sitzt.

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Die große VR-Brillenschwemme | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.