Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Update vom 9. September 2017:

In einem ausführlichen Begleitbrief äußern sich die verantwortlichen Wissenschaftler Michal Kosinski und Yilun Wang zu ihren Ergebnissen und beziehen unter anderem Stellung zu Parallelen zur häufig als Pseudowissenschaft beschriebenen Physiognomik. Bei der versuchen Mediziner, Menschen auf verschiedenen Ebenen anhand ihrer äußeren Erscheinung und der Gesichtsbeschaffenheit zu diagnostizieren.

Zwar basiere die Physiognomik auf unwissenschaftlichen Studien, Aberglaube, anekdotischen Beweisen und rassistischen Theorien. Das bedeute jedoch nicht, dass alle Annahmen von Physiognomisten pauschal falsch seien.

"Die Hauptaussage der Physiognomik, dass der Charakter eines Menschen bis zu einem gewissen Grad am Gesicht abgelesen werden kann, scheint korrekt zu sein (auch wenn das verstörend ist)", schreiben Kosinski und Wang.

Anzeige
Anzeige

Viele Studien, die nachweisen sollten, dass Physiognomik falsch sei, hätten auch gezeigt, dass die Menschen in ihren Urteilen basierend auf Äußerlichkeiten kontinuierlich über dem Zufallsdurchschnitt lagen. Ein sensibler Algorithmus sei darüber hinaus dazu in der Lage, Feinheiten zu identifizieren, die Menschen nicht wahrnehmen könnten.

Forscher sehen großes Risiko im Studienergebnis

Die Forscher räumen ebenfalls ein, dass ihre Untersuchung womöglich falsche Ergebnisse produziert haben könnte. Allerdings scheinen sie davon nicht besonders überzeugt. Sie beschreiben einen hohen Aufwand für das Studiendesign und die Validierung der Ergebnisse.

"Wir bekommen viel Feedback, dass unsere Ergebnisse nicht stimmen. Und ganz ehrlich - wir wären froh darüber", schreiben Kosinski und Wang. Die Tatsache, dass ein Algorithmus eine sexuelle Neigung identifizieren könne, habe potenziell enorme Auswirkungen auf die Privatsphäre und könne in Einzelfällen sogar lebensbedrohlich sein.

Sie hätten lange überlegt, ob die Studie überhaupt veröffentlicht werden sollte, da sie das Ergebnis "sehr verstört" habe. "Wir wollten nicht die Risiken ermöglichen, vor denen wir warnen."

Letztlich hätten sie sich für eine Veröffentlichung entschieden, da Regierungen und Technologieunternehmen die Potenziale der Gesichtsanalyse mittels Computer Vision ohnehin kennen und sogar anwenden würden. Die Studie sei mit herkömmlicher Software, frei zugänglichen Daten und Standardmethoden der Computer Vision durchgeführt worden.

Empfehlung

Ursprünglicher Artikel vom 8. September 2017:

KI unterscheidet Homosexuelle und Heteros anhand von Gesichtszügen

Seit dem Urvater der Medizin Hippokrates untersuchen Forscher, ob und wie das Wesen einer Person in ihrem Erscheinungsbild abgelesen werden kann. Einem Algorithmus der Stanford Universität scheint dieses Kunststück deutlich besser zu gelingen als Menschen.

Intuitiv glauben viele Menschen, dass man anhand der Gesichtszüge und des Erscheinungsbildes einer Person mehr über ihr Verhalten, über Vorlieben und Charakterzüge erfahren kann. Eine Studie der Stanford Universität schreibt diese Fähigkeit jetzt einer selbstlernenden Künstlichen Intelligenz zu.

Laut den für die Studie verantwortlichen Wissenschaftlern Michal Kosinski und Yilun Wang haben homosexuelle Männer und Frauen für ihr jeweiliges Geschlecht untypische Gesichtsmerkmale, mimische Ausdrücke und modische Stile, die dazu führen sollen, dass schwule Männer femininer und lesbische Frauen maskuliner wirken.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Die KI lernte anhand von 35.000 Porträtfotos einer Datingwebseite, die Bilder enthielten Metainformationen zur sexuellen Orientierung. Anschließend unterschied die Künstliche Intelligenz auf bislang unbekannten Fotos mit einer Genauigkeit von 81 % zwischen schwulen und heterosexuellen Männern. Bei Frauen lag die Erfolgsquote bei 74 %. Farbige und bisexuelle Menschen sowie Transgender wurden bei der Untersuchung nicht berücksichtigt.

Der Algorithmus im Einsatz. Augenbrauen, Augen, Nase, Lippen und Kiefer wurden analysiert. Bild: Stanford
Der Algorithmus im Einsatz: Augenbrauen, Augen, Nase, Lippen und Kiefer werden analysiert. Bild: Stanford

Wenn die KI bis zu fünf Bilder der gleichen Person analysierte, konnte die Genauigkeit der Vorhersage zur sexuellen Orientierung auf bis zu 91 % bei Männern und 83 % bei Frauen gesteigert werden.

Menschen erzielten im Vergleich ein deutlich schlechteres Ergebnis und erkannten anhand eines Bildes 61 % der schwulen Männer und 54 % der lesbischen Frauen korrekt.

Das Fazit der Wissenschaftler: Gesichter enthalten viel mehr Informationen zur sexuellen Orientierung, als das menschliche Gehirn wahrnehmen und interpretieren kann.

Die Ergebnisse unterstützen außerdem die These, dass die sexuelle Orientierung anhand hormoneller Einflüsse vor der Geburt festgelegt wird. Die geringere Erfolgsquote bei Frauen deute daraufhin, dass weibliche Sexualität flexibler sei.

Algorithmus könnte auch Verknüpfungen mit anderen Persönlichkeitsmerkmalen herstellen

Wenn eine Maschine die sexuelle Orientierung eines Menschen an den Gesichtszügen ablesen kann, wirft das ethische Fragestellungen auf. Laut den Forschern besteht das Risiko, dass eine KI anhand der Milliarden Fotos in sozialen Netzwerken die sexuelle Orientierung weiter Teile der Bevölkerung ohne deren Einwilligung bestimmt.

Kosinski gibt gegenüber The Economist an, dass seine Untersuchung eine Demonstration sei, die Gesetzgeber vor der Macht des maschinellen Sehens warnen solle. Die Technologie mache eine weitere Beeinträchtigung der Privatsphäre "unausweichlich", diese Gefahr müsse verstanden werden.

Nick Rule, Psychologe an der Universität Toronto, erforscht, wie sich Schwule und Lesben intuitiv untereinander erkennen können. Er bezeichnet das Ergebnis der Stanford-Studie gegenüber The Guardian als "beunruhigend". Die Autoren hätten in der Untersuchung nachgewiesen, wie mächtig die Gesichtsanalyse durch eine Künstlichen Intelligenz sei. Jetzt brauche es entsprechende Schutzmaßnahmen.

Die Stanford-Studie stellt weiter in Aussicht, dass der gleiche Algorithmus auch Zusammenhänge zwischen Gesichtsmerkmalen und beispielsweise der politischen Gesinnung, psychologischen Konditionen und der Persönlichkeit eines Menschen herstellen könne. Die vollständige Studie ist hier einsehbar.

| Featured Image: Stanford (Screenshot)
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!