Killer-Roboter sind Unsinn, glaubt Googles KI-Chef John Giannandrea. Ein reales Risiko hingegen seien mit menschlichen Vorurteilen behaftete Datensätze, mit denen KI-Systeme trainiert werden.

Hinter dem größten Teil aktueller KI-Projekte verbergen sich maschinelle Lernverfahren. Algorithmen sollen lernen, möglichst verlässlich Muster in großen Datenmengen zu identifizieren. Dafür werden sie mit zur Aufgabenstellung passenden Datensätzen trainiert, die meist aus Bildern, Text und mittlerweile auch aus kurzen Videos und Tonausschnitten bestehen.

Der trainierte Algorithmus kann anschließend für aufwendige und automatisierte Analyseverfahren eingesetzt werden, die für Menschen zu komplex und zeitaufwendig wären. Auch die umstrittene Studie zweier US-Wissenschaftler, deren Algorithmus Homosexualität anhand der Gesichtsform erkennen können soll, basiert auf solchen Lernverfahren.

Transparenter Umgang mit Trainingsdaten

Laut Googles KI-Chef John Giannandrea birgt das maschinelle Lernen ein Sicherheitsrisiko, das absolut nichts mit dem Terminator zu tun hat: Es ist abhängig von Daten, die von Menschen erstellt werden.

In diesen Daten verstecken sich potenziell Vorurteile, die das Analyseergebnis verfälschen können. Das wiegt besonders schwer, wenn Menschen dem Urteil des vermeintlich neutralen Computers blind vertrauen.

“Es ist wichtig, dass wir mit den Trainingsdaten sehr transparent umgehen und dass wir sie auf versteckte Vorurteile untersuchen, ansonsten bauen wir Systeme mit Vorurteilen”, sagt Giannandrea der Webseite MIT Technology Review.

Er warnt davor, einen Blackbox-Algorithmus zum Beispiel im medizinischen Sektor als Entscheidungshilfe einzusetzen. “Wenn man ni…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: So steht es um VR-Gaming | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.