Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Ein Video mit schwarzen Personen darin wird von einer Facebook-KI als Inhalt mit Affen kategorisiert. Der Konzern spricht von einem „inakzeptablen Fehler“.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Facebooks KI-Fehler trat bei einem Video der britischen Nachrichtenseite „The Daily Mail“ auf, das bei Facebook Watch veröffentlicht wurde. In dem Video sind schwarze Menschen bei Auseinandersetzungen mit weißen Zivilisten und Polizeibeamten zu sehen. Affen oder Primaten kommen in dem Video nicht vor.
Nach Ablauf des Videos fragte Facebooks KI-System Zuschauer:innen, ob sie „weiterhin Videos über Primaten sehen möchten“. Veröffentlicht wurde das Video der Daily Mail bereits am 27. Juni 2020. Ob der Fehler noch bei anderen Videos auftrat, ist derzeit nicht bekannt.
Facebook entschuldigt sich – mal wieder
Am Freitag entschuldigte sich Facebook für die Verwechslung und sprach von einem „inakzeptablem Fehler“. Das für die Video-Empfehlung verantwortliche KI-System wurde deaktiviert. Die Ursache für den Fehler soll gefunden werden, „damit sowas nicht wieder passiert“.
„Wie wir bereits gesagt haben, haben wir unsere KI zwar verbessert, aber wir wissen, dass sie nicht perfekt ist und wir noch weitere Fortschritte machen müssen. Wir entschuldigen uns bei allen, die diese beleidigenden Empfehlungen gesehen haben könnten“, sagt Facebook-Sprecherin Dani Lever.
Es ist nicht das erste Mal, dass automatisierte KI-Analysen zu krass rassistischen Resultaten führen. Bekannt ist unter anderem der Fall, bei dem Googles automatische Verschlagwortung in der Photos-App Bildern von schwarzen Menschen das Schlagwort „Gorilla“ zuwies.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Vorurteile in KI-Systemen sind ein ungelöstes Problem
Das grundlegende Problem hinter Facebooks katastrophalem Systemfehler ist tiefliegend: Heute besonders leistungsstarke KI-Systeme werden mit gigantischen Datenmengen aus dem Internet trainiert. Facebook etwa trainiert seine Bildanalyse-KI mit Milliarden verschlagworteten Instagram-Bildern. Diese im Vorfeld auf rassistische Vorurteile zu untersuchen und davon zu bereinigen, ist unmöglich.
Datensätze für das KI-Training von Anfang an kontrolliert und von Menschen zusammentragen zu lassen, ist ebenso keine Lösung: Der Arbeitsaufwand bei vergleichbaren Datenmengen wäre riesig und die Bearbeitung durch Menschen längst keine Garantie, dass die Datensätze vorurteilsfrei sind.
Für die KI-Branche ist und bleiben Vorurteile in Daten daher ein ungelöstes Dilemma. Fehler wie jene von Google oder Facebook dürften sich in Zukunft wiederholen.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.