Forscher des MIT entwickeln eine Künstliche Intelligenz, die Vorurteile aus Datensätzen entfernen kann. Eine Formel für die Gerechtigkeit, wenn man so will.

KI-Systeme können Vorurteile haben, das ist eines der großen Probleme Künstlicher Intelligenz. Verzerrte Trainingsdaten sind der Auslöser: Wenn eine KI Brautkleider nur durch westliche Hochzeitsfotos kennenlernt, ist sie in anderen Kulturen aufgeschmissen. Zum Beispiel.

Auf der Suche nach einer Lösung gab es bislang zwei Ansätze: Bessere Daten oder bessere Algorithmen. Forscher des MIT stellen jetzt einen dritten Ansatz vor.

KI soll Verzerrungen erkennen

„Wir haben in den letzten Jahren gelernt, dass KI-Systeme unfair sein können, was gefährlich ist, wenn sie zunehmend Teil unseres Lebens werden – von der Vorhersage von Verbrechen bis zur Anzeige von Nachrichten“, heißt es in einer Mitteilung der KI-Abteilung des MIT.

Das Team habe daher einen Algorithmus entwickelt, der in vorhandenen Datensätzen Verzerrungen erkennen und eliminieren soll. Getestet wurde er bei der Gesichtserkennung.

Eine vorurteilsfreie KI sollte Gesichter immer als solche erkennen – unabhängig von Hautfarbe, Geschlecht oder Alter der Person. Doch bei unausgeglichenen Trainingsdaten ist die KI anschließend häufig nicht dazu in der Lage.

Daher widmet sich die MIT-KI nicht nur ihrem Standardtraining, sondern lernt gleichzeitig die latenten Strukturen der Daten ke…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.