Neue Facebook-KI kann Personen vor Gesichtserkennung schützen

Neue Facebook-KI kann Personen vor Gesichtserkennung schützen

Facebook-Forscher haben eine KI entwickelt, die Personen in Videos in Echtzeit vor Gesichtserkennung schützen kann.

Facebooks KI-Wissenschaftler stellen eine Methode vor, mit der Personen in Videos in Echtzeit nachträglich für ein Gesichtserkennungssystem anonymisiert werden können. Dafür platziert eine Gegner-KI in das Gesicht der zu anonymisierenden Person eine minimale Verzerrung.

Ähnliche Ansätze existieren für Fotos. Facebooks Gegner-KI soll allerdings die erste sein, die in Echtzeit Videos von Personen anonymisieren kann. Sie muss weder für ein bestimmtes Video noch für eine spezifische Person trainiert werden.

___STEADY_PAYWALL___

Die KI sieht mehr als der Mensch – und das macht sie anfällig

Ausgangsbasis ist ein auf Gesichtserkennung vortrainiertes Netzwerk. Die Methode ähnelt Deepfakes insofern, da das eigentliche Gesicht der Person durch eine Maske des Gesichts mit Verzerreffekt ersetzt wird. Für einen Menschen ist dieser Gesichtertausch kaum bis gar nicht sichtbar.

Ein auf Gesichtserkennung trainiertes KI-System hingegen analysiert die kleine Pixelveränderung mit dem Rest des Bildes, vergleicht die Daten mit den Trainingsdaten, in denen die Verzerrung nicht existiert, und scheitert dann an der fehlenden Zuordnungsmöglichkeit.

Das Ergebnis: Menschen könnten ein Live-Video beispielsweise einer öffentlichen Veranstaltung ohne Einschränkungen betrachten. Die KI hingegen würde in dem Video keine Personen erkennen.

Wer den Unterschied zwischen Original und KI-Täuschung wahrnehmen kann, ist fit fürs KI-Zeitalter. Bild: Facebook

Wer den Unterschied zwischen Original und KI-Täuschung wahrnehmen kann, ist fit fürs KI-Zeitalter. Bild: Facebook

Ein Video des Systems im Einsatz kann man hier ansehen.

Keine Implementierung in Facebook-Produkte geplant

Facebook hat derzeit keine Pläne, die Technologie in die eigenen Produkte zu integrieren. Die Methode könnte auch verwendet werden, um Trainingsdaten für Gesichtserkennungssysteme zu anonymisieren.

Beispielsweise geriet IBM in die Kritik, da das Unternehmen einen KI-Trainingsdatensatz für Gesichtserkennung mit Porträtfotos von Flickr ausstattete, ohne dass die Porträtierten davon wussten.

Der Einsatz anonymisierter Fotos fürs KI-Training ohne explizite Einwilligung der Fotografen wäre moralisch zwar noch immer fragwürdig, aber immerhin wären die Gesichter nicht mehr den Personen zuordenbar.

Via: Venturebeat; Quelle: Facebook AI

Weiterlesen über Gesichtserkennung