Im März warnte Facebooks KI-gestütztes Erkennungssystem nicht, als ein Amokläufer seine Taten als Live-Video streamte. Auf der Suche nach einer Lösung für solche Ausfälle wähnt sich Facebook nun einen Schritt weiter.

Beim Anschlag von Christchurch im März tötete der Terrorist Brenton Tarrant 50 Menschen und verletzte 50 weitere. Seinen Amoklauf streamte er live bei Facebook. Tausende Zuschauer sahen das Video, keiner von ihnen meldete die Tat. Das Video wurde später millionenfach erneut hochgeladen – Facebooks automatisches KI-gestütztes Warnsystem blieb stumm.

Der Grund laut Facebook: Das Trainingsmaterial fürs KI-Training fehlte. Bilder aus der ersten Perspektive von Amokläufen gibt es wenige. Zu wenige, um eine Künstliche Intelligenz für die verlässliche Erkennung entsprechender Szenen zu trainieren. Denn deren Algorithmus arbeitet nur verlässlich, wenn er zuvor tausende Beispiele auf Muster untersuchen durfte.

Es sei außerdem schwierig für eine KI, einen tatsächlichen Amoklauf von Szenen aus Videospielen zu unterscheiden. Das Training mit gewalthaltigen Szenen aus Filmen sei zu generisch und sorge dafür, dass Inhalte mit simulierter Gewalt ebenfalls gesperrt würden.

Die Polizei hilft – mit Trainingsmaterial

Jetzt gibt Facebook bekannt, dass es zukünftig mit Polizeibehörden in den USA und UK kooperiert, um weitere Livestream-Amokläufe zu verhindern.

Das Tech-Unternehmen erhält von UK-Behörden ab Oktober viele Stunden Videoaufnahmen von Polizei-Waffentrainings. Die sind mit Körperkameras aus der ersten Perspektive gefilmt – ähnlich wie beim Anschlag von Christchurch. Auch andere Unternehmen, die KI-Erkennungstechnologie entwickeln, sollen die Aufnahmen erhalten. Facebooks Verhandlungen in den USA laufen noch, Informationen zu Kooperationen soll es in naher Zukunft geben.

Mit den Polizeivideos soll Facebooks KI-Erkennung so trainiert werden können, dass Amokläufe und generell Angriffe mit Schusswaffen in Facebook-Videos zukünftig verlässlich erkannt und gesperrt werden.

Facebooks Technologie könne dabei helfen, Angriffe mit Schusswaffen frühzeitig zu erkennen und so weltweit die Polizei bei ihrer Arbeit unterstützen, sagt der Anti-Terror-Spezialist Neil Basu der britischen Polizeibehörde. Technologie, die entsprechende Live-Übertragungen automatisch erkennt und stoppt, könne außerdem die Verherrlichung solcher Taten und die Verbreitung des damit einhergehenden “toxischen Gedankenguts” signifikant reduzieren.

Quelle & Titelbild: Facebook; Via: Cnet

Weiterlesen über Künstliche Intelligenz:


MIXED-Podcast #165: Die Zukunft von Oculus | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.