Die KI erkannte das Christchurch-Video nicht als Bedrohung, weil sie nicht auf Massenmord trainiert ist.

Zwölf Minuten dauerte es laut Facebook, bis der schon beendete Live-Stream des Christchurch-Massakers gemeldet und anschließend entfernt wurde. Rund 200 Leute sollen den Stream gesehen haben, 4.000 Menschen die aufgezeichnete Übertragung. Keiner der Live-Zuschauer drückte auf den Melden-Knopf.

Eigentlich, so sieht es die Theorie vor, hätte an dieser Stelle ein Automatismus greifen sollen. Eine Künstliche Intelligenz Facebooks, die die Nachrichtenströme durchwühlt, Kommentare auf Schlüsselworte scannt, Videobilder analysiert und aus dieser Kombination das Fazit zieht: Hier passiert etwas Schlimmes. Macht was dagegen.

Laut Facebook funktioniert das bei drohenden Selbstmorden vor der Kamera oder bei Rachepornos. Bei einem Massenmord offensichtlich nicht.

Der KI fehlten Lernbeispiele

In einem Statement liefert Facebook-Produktmanager Guy Rosen den Grund: Die Künstliche Intelligenz konnte den Massenmord mangels passender Trainingsdaten nicht als solchen identifizieren.

KI benötige tausende Beispiele eines bestimmten Inhalts, um ihn anschließend verlässlich identifizieren zu können, so Rosen. Das funktioniere gut bei Nacktaufnahmen, terroristischer Propaganda oder expliziter Gewaltdarstellung.

Ein Ereignis wie das Christchurch-Massaker, das in dieser Form erstmals passiert ist, schlüpft folg…


MIXEDCAST #171: Das Carmack-Drama, Stormland und Magic Leak | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.