Die Welt ist noch zu komplex für KI: Fehlt das Trainingsmaterial, ist sie aufgeschmissen.

Im März tötete der Terrorist Brenton Tarrant beim Anschlag von Christchurch 50 Menschen und verletzte 50 weitere. Seine Tat übertrug er live bei Facebook. 200 Menschen sahen direkt zu, 4.000 danach – keiner der Zuschauer meldete, was passierte.

Eigentlich sollten Automatismen greifen: Mit KI-gestützter Bild- und Tonanalyse will Facebook-Chef Mark Zuckerberg verhindern, dass seine Social-Plattform als Rundfunkanstalt für Terror und Gewalt missbraucht wird. Doch der Automatismus griff nicht: Der Anschlag lief einfach so durch neben Influencer-Werbung für Lippenstift, Spiele-Streamern und Witzvideos.

In einem Statement räumte Facebook unmittelbar nach dem Anschlag ein, dass der KI schlicht das Trainingsmaterial fehle, um Gräueltaten dieses Ausmaßes verlässlich zu erkennen. Außerdem sei es schwierig, einen realen Amoklauf von visuell ähnlichem Inhalt zum Beispiel aus einem Videospiel zu unterscheiden.

Terroranschlag: Zu extrem für die KI

Facebooks KI-Chef Yann LeCun bekräftigt diese Einschätzung jetzt bei einer Veranstaltung in Facebooks KI-Forschungslabor in Paris: “Wir sind weit davon entfernt, das Problem zu lösen”, sagt LeCun (via Bloomberg).

Es sei zwar möglich, die KI beispielsweise mit gewalthaltigen Szenen aus Filmen zu trainie…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: MR-Brille Lynx und Learntec 2020 | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.