Metahuman: Entwickler zeigt realistisches Face-Tracking - nur mit dem iPhone

Metahuman: Entwickler zeigt realistisches Face-Tracking - nur mit dem iPhone

Mit dem Metahuman Baukasten will der 3D-Engine-Anbieter Epic Games die Kreation digitaler Menschen revolutionieren. Bei YouTube zeigen Entwickler interessante Experimente.

Anzeige
Anzeige

Eines dieser Experimente umfasst die Gesichtsanimationen der Meta-Menschen: Ein aktuelles iPhone reicht dank Apples AR-Technologie ARKit und der vorderseitig integrierten TrueDepth-Kamera aus, um die Mimik einer Person in Echtzeit einzufangen und auf die digitale Figur zu übertragen. In der Vergangenheit waren für ein ähnliches Ergebnis im Vergleich aufwendigere Motion-Capture-Verfahren oder gar händische Animationen nötig.

Gerade kleinere Studios sollen daher langfristig vom Metahuman-Baukasten profitieren. Das wiederum könnte der VR-Branche zugutekommen, in der die realistische Darstellung digitaler Menschen einen besonderen Stellenwert hat, beispielsweise in Videospielen oder für Telepräsenz-Anwendungen.

___STEADY_PAYWALL___

Face-Tracking mit realistischer Mimik: iPhone oder Webcam reichen aus

Die Szenen im Video wurden mit einem aktuellen iPhone und Epics iOS-App "Live Link Face" gedreht. Kompatibel ist Live Link Face mit allen mit einer TrueDepth-Frontkamera ausgerüsteten iPhones ab dem iPhone 11 / X. Die App läuft außerdem mit Generation 1 und 2 des iPad Pro 11 und der dritten und vierten Generation des iPad Pro 12.9. Ein ausführliches Tutorial für Live-Face-Tracking für Metahuman gibt es hinter dem Link.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Eine Alternative zum iPhone-Setup ist die Software "Faceware": Hier reicht schon eine herkömmliche Webcam oder aufgezeichnetes Videomaterial, um Mimikdaten aus einem echten Gesicht zu extrahieren und auf das eines Metahuman zu übertragen. Faceware soll im Vergleich zur iPhone-Digitalisierung bei der Übernahme der Mund- und Lippenbewegungen im Vorteil sein. Hinter dem Link gibt es ein Tutorial für Faceware für Metahumans.

Über die Anwendungsszenarien von Metahumans und technische Alternativen sprechen wir ausführlich im MIXED.de Podcast Folge #245. In unserer aktuellen Folge #249 gibt uns Unreal-Entwickler Robin Hasenbach einen detaillierten Einblick in die technischen Möglichkeiten der neuen Unreal Engine 5.

Weiterlesen über digitale Menschen: