Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Worte zu verstehen ist eine Sache, sie mit Emotionen zu verknüpfen eine andere. Facebook arbeitet an einer Künstlichen Intelligenz, die Gesichter lesen lernen soll.

Worte sind nicht gleich Worte: Der gleiche Satz einmal unterlegt mit einem grimmigen Blick, einem süffisanten Lächeln oder einem Tränchen auf der Wange kann eine völlig andere Bedeutung haben. Menschen verstehen das intuitiv und reagieren anders. Aktuelle KI-Assistenten geben immer die gleiche Antwort.

Mit hunderten YouTube-Videos von Menschen, die sich über Skype unterhalten, trainierten Facebook-Wissenschaftler eine künstliche Intelligenz, Gesichtsausdrücke besser zu erkennen. Ein Bereich, der laut den Forschern im Vergleich zur reinen Spracherkennung stark vernachlässigt ist.

Oben Nutzer in einer Skype-Konversation, unten die Emotionen, die die Facebook-KI erkennt. Bild: Facebook
Oben Nutzer in einer Skype-Konversation, unten die fein abgestufte Mimik, die die Facebook-KI erkennt. Bild: Facebook

Bot soll Mimik kontinuierlich in der Interaktion berücksichtigen

Bei ihrem Verfahren lassen die Forscher die KI nur ausgewählte Teile des Gesichts beobachten, die entscheidend sind für den Gesichtsausdruck, zum Beispiel die Position der Augenbrauen oder der Mundwinkel.

Anzeige
Anzeige

Neu dabei ist, dass die KI nicht nur vorgegebene Emotionen wie "traurig" oder "fröhlich" erkennt, sondern sogenannte Mikromimik liest. Diese leichten Veränderungen im Gesicht (siehe Titelbild) sind bei jedem Menschen ähnlich, obwohl die Gesichtszüge vollkommen unterschiedlich sind.

Der KI-Agent soll diese Mikromimik kontinuierlich in einer Konversation berücksichtigen und so den Stimmungsverlauf einer Unterhaltung lesen, anstatt nur unmittelbar auf eine einzelne, ausgewählte Emotion - zum Beispiel ein Lachen - zu reagieren.

Die Ergebnisse dieser Forschung könnte Facebook für Virtual Reality anwenden, beispielsweise um Avatare in der Social-VR-App Spaces glaubhafter zu animieren. Voraussetzung dafür wäre allerdings zusätzliche Gerätschaft, die die menschliche Mimik in der VR-Brille in Echtzeit erfasst. Möglich wäre das beispielsweise mit Elektroden auf der Gesichtspolsterung oder einer externen Kamera.

Integriert in eine Augmented-Reality-Brille, könnte ein solches KI-System Menschen helfen, die im Alltag Probleme damit haben, Gesichter und Emotionen zu lesen. Die vollständige Publikation ist hier einsehbar.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
| Featured Image: Facebook (Screenshot)
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!