Künstliche Intelligenz automatisiert vieles, auch die Überwachung. Allerdings kann sie diese ebenso verhindern – oder zumindest erschweren. Ein Hin und Her zeichnet sich ab.

KI-Forscher der Universität Toronto stellen einen Algorithmus vor, der eine Gesichtsanalyse-KI davon abhalten kann, ihren Job erfolgreich zu machen. Dafür verändert die Gegner-KI jene Stellen im Gesicht, die die Analyse-KI als Orientierungspunkte für die Gesichtserkennung verwendet.

Wenn die Analyse-KI beispielsweise die Augenwinkel auswertet, um eine Person zu identifizieren, verändert die Gegner-KI die Pixelstruktur an den Augenwinkeln minimal. Diese für das menschliche Auge kaum oder nicht wahrnehmbare Anpassung (siehe Titelbild) soll ausreichen, um eine Identifizierung zu verhindern.

Entwickelt wurde das Störverfahren nach dem gleichen Prinzip, nach dem auch eine Gesichtserkennungs-KI optimiert wird – nur eben umgekehrt:

Zwei miteinander konkurrierende neuronale Netze verbessern sich gegenseitig. Die Gegner-KI legt der Analyse-KI ein verändertes Foto zur Erkennung vor. Ist die Analyse-KI erfolgreich, gilt der Versuch als gescheitert und die Gegner-KI passt das Foto erneut an – bis die Analyse-KI kontinuierlich versagt.

Der digitale Foto-Schredder fürs KI-Zeitalter

Das Verfahren schützt natürlich nicht vor einer Echtzeit-Analyse des eigenen Gesichts. Aber es könnte für Fotos benutzt werden, die man ins Internet hochlädt. So wäre man im Fall der Fälle schwieriger über verschiedene Kanäle hinweg aufspürbar.

Hinzu kommt, dass neben dem eigenen Gesicht viele weitere Informationen in einem Bild stecken können. Beispielsweise kann eine Aufnahme Daten enthalten über den Aufenthaltsort, verwendete Produkte u…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: OpenXR, Oculus Half Dome und Fake-Holodecks | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.