Metaverse: So realistisch sollen Avatare werden

Metaverse: So realistisch sollen Avatare werden

Auf der Connect 2021 gab Meta (ehemals: Facebook) einen Einblick in die Zukunftstechnologien, die das Metaverse prägen werden.

Das Metaverse steckt in einer frühen Entwicklungsphase. Das betonte Mark Zuckerberg in der gestrigen Keynote immer wieder. Erst ab der zweiten Hälfte des Jahrzehnts soll das digitale Paralleluniversum allmählich Gestalt annehmen und für die Masse attraktiv werden – sofern der Plan des Meta-CEOs aufgeht.

Gegen Ende der Keynote wagte Zuckerberg einen Blick in diese weiter entfernte Zukunft und zeigte den aktuellen Stand der Forschung seiner 10.000 Mann und Frau starken VR- und AR-Labore.

___STEADY_PAYWALL___

Manche dieser ehrgeizigen Projekte dürften erst in fünf bis zehn Jahren in marktreife Produkte überführt werden, wenn überhaupt. Interessant sind sie allemal.

Soziale Nähe durch fotorealistische Avatare

Den Anfang machten die Codec Avatare: die fotorealistischen Alter Egos, mit denen wir uns eines Tages durch das Metaverse bewegen sollen.

Das folgende Video zeigt Yaser Sheikh, den Leiter des Pittsburghers Meta-Zukunftslabors, das an den Codec Avataren arbeitet. Der Clou: Was wir sehen, ist nicht Sheikh selbst, sondern sein digitaler Avatar.

Erstellt wurde sein Avatar in einem speziellen 3D-Fotostudio mithilfe eines aufwendigen Digitalisierungsverfahrens. Eines Tages jedoch sollen Smartphone-Fotos und KI-Magie reichen, um realistische Alter Egos für das Metaverse zu generieren. Eine VR-Brille zeichnet derweil Mimik und Körpersprache auf und überträgt sie in Echtzeit die Simulation. So jedenfalls der Plan.

Doch was ist, wenn man seinen Avatar anpassen will: sich digital eine neue Frisur verpassen, den Bart wachsen lassen oder eine Brille aufsetzen? Auch daran haben die Meta-Forscher gedacht, wie folgender Video-Ausschnitt zeigt.

Das künstliche Abbild ist so detailliert, dass man selbst einzelne Poren erkennen kann. Eine Simulation sorgt derweil dafür, dass sich Kleidung realistisch am Körper bewegt. Welche Rechenleistung hierfür benötigt wird und woher sie kommen soll: das lässt Meta unbeantwortet.

VR-Teleportation durch 3D-Rekonstruktion physischer Räume

Neben den Avataren braucht es realistische Metaverse-Umgebungen, in denen man sich bewegt. Oder noch besser: eine Möglichkeit, sich in die Räumlichkeiten der Person zu teleportieren, die man virtuell besuchen möchte.

VR-Brillen (Vergleich) sollen eines Tages in der Lage sein, die physische Umgebung mittels integrierter Kameras räumlich zu scannen und ein akkurates 3D-Modell zu erstellen, in die man andere VR-Nutzer:innen einladen kann. Der folgende Video-Ausschnitt zeigt, wie das aussehen könnte.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Neurale Interfaces: Steuerung durch Hirnsignale

Meta strebt ein natürliches und intuitives Interface für Virtual Reality und Augmented Reality an. Statt mit Maus und Tastatur oder Controller steuert man die Nutzeroberflächen der Zukunft mit Sprachbefehlen, Gesten – und vielleicht sogar Gedanken.

Im Frühjahr stellte Meta einen Armband-Prototyp vor, der neurale Impulse am Handgelenk abgreift, deren Muster mit KI analysiert und in Computerbefehle übersetzt. Damit soll es möglich sein, die VR- und AR-Interfaces mit Mikrogesten zu steuern.

In der Öffentlichkeit mit Alexa sprechen oder mit den Händen fuchteln: das ist ein No-Go. Feine Fingerbewegungen könnten hingegen schon eher auf soziale Akzeptanz treffen. Einmal soll es sogar möglich sein, die VR- oder AR-Brille ohne Fingerbewegung und nur per Gedankenkraft zu steuern, sofern das KI-Armband die Hirnsignale ausreichend gut erkennt.

Der obige Video-Ausschnitt zeigt, wie man mittels neuralem Interface und Mikrogesten Nachrichten tippen könnte.

Die AR-Brille als Alltagshilfe

Zu guter Letzt demonstrierte Meta, was eine alltagstaugliche AR-Brille in der Zukunft alles leisten könnte. Die Idee ist, einen KI-Assistenten zu haben, der Brillenträger:innen proaktiv im Alltag unterstützt, Kontexte versteht und mögliche Handlungen vorwegnimmt, bevor sie überhaupt passieren.

Setzt man sich vor einen Fernseher und blickt ihn an, erkennt die KI, dass man TV kucken möchte und blendet die entsprechende Option ein. Sucht man nach den Schlüsseln, weiß sie, wo man sie hingelegt hat, da die AR-Brille das Objekt als solches erkennt und verfolgt.

Kombiniert mit einer neuralen Mikrogesten-Steuerung wird die AR-Brille zu einem leicht und intuitiv bedienbaren Alltagshelferlein.

Weitere Informationen zu Facebooks VR- und AR-Forschung findet ihr in den folgenden Artikeln:

Quellen: Connect 2021 Keynote