Killer-Roboter sind Unsinn, glaubt Googles KI-Chef John Giannandrea. Ein reales Risiko hingegen seien mit menschlichen Vorurteilen behaftete Datensätze, mit denen KI-Systeme trainiert werden.

Hinter dem größten Teil aktueller KI-Projekte verbergen sich maschinelle Lernverfahren. Algorithmen sollen lernen, möglichst verlässlich Muster in großen Datenmengen zu identifizieren. Dafür werden sie mit zur Aufgabenstellung passenden Datensätzen trainiert, die meist aus Bildern, Text und mittlerweile auch aus kurzen Videos und Tonausschnitten bestehen.

Der trainierte Algorithmus kann anschließend für aufwendige und automatisierte Analyseverfahren eingesetzt werden, die für Menschen zu komplex und zeitaufwendig wären. Auch die umstrittene Studie zweier US-Wissenschaftler, deren Algorithmus Homosexualität anhand der Gesichtsform erkennen können soll, basiert auf solchen Lernverfahren.

Transparenter Umgang mit Trainingsdaten

Laut Googles KI-Chef John Giannandrea birgt das maschinelle Lernen ein Sicherheitsrisiko, das absolut nichts mit dem Terminator zu tun hat: Es ist abhängig von Daten, die von Menschen erstellt werden.

In diesen Daten verstecken sich potenziell Vorurteile, die das Analyseergebnis verfälschen können. Das wiegt besonders schwer, wenn Menschen dem Urteil des vermeintlich neutralen Computers blind vertrauen.

“Es ist wichtig, dass wir mit den Trainingsdaten sehr transparent umgehen und dass wir sie auf versteckt…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.