Im März warnte Facebooks KI-gestütztes Erkennungssystem nicht, als ein Amokläufer seine Taten als Live-Video streamte. Auf der Suche nach einer Lösung für solche Ausfälle wähnt sich Facebook nun einen Schritt weiter.

Kabetec VR-Brille

Beim Anschlag von Christchurch im März tötete der Terrorist Brenton Tarrant 50 Menschen und verletzte 50 weitere. Seinen Amoklauf streamte er live bei Facebook. Tausende Zuschauer sahen das Video, keiner von ihnen meldete die Tat. Das Video wurde später millionenfach erneut hochgeladen – Facebooks automatisches KI-gestütztes Warnsystem blieb stumm.

Der Grund laut Facebook: Das Trainingsmaterial fürs KI-Training fehlte. Bilder aus der ersten Perspektive von Amokläufen gibt es wenige. Zu wenige, um eine Künstliche Intelligenz für die verlässliche Erkennung entsprechender Szenen zu trainieren. Denn deren Algorithmus arbeitet nur verlässlich, wenn er zuvor tausende Beispiele auf Muster untersuchen durfte.

Es sei außerdem schwierig für eine KI, einen tatsächlichen Amoklauf von Szenen aus Videospielen zu unterscheiden. Das Training mit gewalthaltigen Szenen aus Filmen sei zu generisch und sorge dafür, dass Inhalte mit simulierter Gewalt ebenfalls gesperrt würden.

Die Polizei hilft – mit Trainingsmaterial

Jetzt gibt Facebook bekannt, dass es zukünftig mit Polizeibehörden in den USA und UK kooperiert, um weitere Livestream-Amokläufe zu verhindern.

Das Tech-Unternehmen erhält von UK-Behörden ab Oktober viele Stunden Videoaufnahmen von Polizei-Waffentrainings. Die sind mit Körperkameras aus der ersten Perspektive gefilmt – ähnlich wie beim Anschlag von Christchurch. Auch andere Unternehmen, die KI-Erkennungstechn…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Unreal Engine 5 - ein neues Grafikzeitalter? | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.