KI-Überwachung ermöglicht ein engmaschiges, automatisiertes Kontrollnetz. Doch Forscher entwickeln auch Gegenmaßnahmen.

Beispiele für KI-gestützte Überwachung gibt es reichlich: aus dem fernen Osten und aus Deutschland. Microsoft-Präsident Brad Smith warnte gar vor einem 1984-Szenario, falls sich KI-Systeme als Kontrollinstrument von Staaten durchsetzen.

Doch wo es eine Erfassungsmethode gibt, existiert auch ein Mittel gegen diese. Bei KI sogar ein recht einfaches, intuitives: Forscher der belgischen Universität KU Leuven zeigen, wie sie mit einem bunten Bild in der Hand anonym werden für eine KI-gestützte Überwachungskamera. Der Sticker, der aus einem gewöhnlichen Drucker kommt, versteckt die gesamte Person vor der Kamera.

Um das KI-Verwirrbild zu finden, füttern die Forscher der KI verschiedene Motive und beobachten ihre Reaktion. Das Motiv wird so lange angepasst, bis die gewünschte Reaktion eintritt, das ist in diesem Fall das Nichterkennen eines Menschen.

Die Forscher glauben, dass der Anti-KI-Sticker in Kombination mit einer Kleidungssimulation auch auf ein T-Shirt gedruckt werden könnte. Das Motiv an sich ist unauffällig und könnte mit bloßem Auge wohl nicht als Anti-KI-Maßnahme identifiziert werden.

Ihre Arbeit stellen die Forscher auf einer Fachkonferenz zu KI-Sicherheit und -Datenschutz im Juni vor. Derzeit funktioniert die Methode nur, wenn sie für eine ausgewählte KI-Überwachung optimiert ist. Im Beispielvideo ist es die Open-Source-Software YOLOv2 für Objekterkennung (siehe Video unten). Für die Zukunft wollen die Forscher Wege finden, Bilder zu erstellen, die gegen unterschiedliche Detektoren eingesetzt werden können.

Interessant ist die Frage, wie Gesetzgeber der verschiedenen Länder mit solchen Anti-KI-Stickern umgehen werden. Im herkömmlichen Web-Browser jedenfalls wird in vielen Ländern ein Inkognitomodus akzeptiert, der dafür sorgen soll, dass Nutzer weitgehend anonym im Netz unterwegs sein können. Das ist zwar nicht die gleiche Sache, berührt im Kern aber dieselbe Frage: Wie anonym darf ein Mensch wann und wo sein?

Via: Technology Review; Titelbild: Anonymous CVCOPS (Screenshot bei YouTube)


MIXEDCAST #159: Deepfake-Risiken, 6D-Cloud und VR-Amoktraining | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.