Uncategorized

Face-Tracking: Virtuelle Avatare werden in Echtzeit lebendig

Matthias Bastian
Die Echtzeit-Kinematographie von Epic Games und Ninja Theory verändert, wie uns digitale Menschen in Virtual Reality begegnen.

Auf der Siggraph Fachkonferenz für Computertechnologie zeigten die Entwickler von Ninja Theory gemeinsam mit Epic Games, wie man Gesichtsmimik in Echtzeit erfassen und digitalisieren kann.

Die Mimik virtueller Darsteller hat in den letzten Jahren massiv an Bedeutung gewonnen. Reichten zu den Anfangszeiten der Videospiele noch ein paar grob aufgelöste Pixelaugen, um digitale Charaktere lebendig werden zu lassen, möchten es cineastisch inszenierte Games heutzutage mit großen Hollywood-Streifen aufnehmen. Dafür müssen selbst feine Details der Gesichtsmuskulatur modelliert werden, um Emotionen so überzeugend wie bei echten Menschen zu vermitteln.

Die Echtzeit-Kinematographie soll virtuelle Welten lebendig machen

Ein neues Verfahren, umgesetzt mit der Unreal Engine, ermöglicht es in Echtzeit, die Gesichtsmimik einer realen Schauspielerin aufzuzeichnen, zu digitalisieren und auf einen virtuellen Avatar zu übertragen. Das vereinfacht vorerst nur die Produktion von überzeugenden Filmsequenzen für Videospiele. Die Technologie dahinter hat aber langfristig auch Implikationen für Virtual Reality. Denn die Echtzeit-Animation ebnet den Weg für glaubhafte digitale Menschen.

PREMIUM-INHALT

Dieser Inhalt ist für unsere Abonnenten sichtbar.