Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Facebook-Forscher haben eine KI entwickelt, die Personen in Videos in Echtzeit vor Gesichtserkennung schützen kann.

Facebooks KI-Wissenschaftler stellen eine Methode vor, mit der Personen in Videos in Echtzeit nachträglich für ein Gesichtserkennungssystem anonymisiert werden können. Dafür platziert eine Gegner-KI in das Gesicht der zu anonymisierenden Person eine minimale Verzerrung.

Ähnliche Ansätze existieren für Fotos. Facebooks Gegner-KI soll allerdings die erste sein, die in Echtzeit Videos von Personen anonymisieren kann. Sie muss weder für ein bestimmtes Video noch für eine spezifische Person trainiert werden.

Die KI sieht mehr als der Mensch - und das macht sie anfällig

Ausgangsbasis ist ein auf Gesichtserkennung vortrainiertes Netzwerk. Die Methode ähnelt Deepfakes insofern, da das eigentliche Gesicht der Person durch eine Maske des Gesichts mit Verzerreffekt ersetzt wird. Für einen Menschen ist dieser Gesichtertausch kaum bis gar nicht sichtbar.

Anzeige
Anzeige

Ein auf Gesichtserkennung trainiertes KI-System hingegen analysiert die kleine Pixelveränderung mit dem Rest des Bildes, vergleicht die Daten mit den Trainingsdaten, in denen die Verzerrung nicht existiert, und scheitert dann an der fehlenden Zuordnungsmöglichkeit.

Das Ergebnis: Menschen könnten ein Live-Video beispielsweise einer öffentlichen Veranstaltung ohne Einschränkungen betrachten. Die KI hingegen würde in dem Video keine Personen erkennen.

Wer den Unterschied zwischen Original und KI-Täuschung wahrnehmen kann, ist fit fürs KI-Zeitalter. Bild: Facebook
Wer den Unterschied zwischen Original und KI-Täuschung wahrnehmen kann, ist fit fürs KI-Zeitalter. Bild: Facebook

Ein Video des Systems im Einsatz kann man hier ansehen.

Keine Implementierung in Facebook-Produkte geplant

Facebook hat derzeit keine Pläne, die Technologie in die eigenen Produkte zu integrieren. Die Methode könnte auch verwendet werden, um Trainingsdaten für Gesichtserkennungssysteme zu anonymisieren.

Beispielsweise geriet IBM in die Kritik, da das Unternehmen einen KI-Trainingsdatensatz für Gesichtserkennung mit Porträtfotos von Flickr ausstattete, ohne dass die Porträtierten davon wussten.

Empfehlung

Der Einsatz anonymisierter Fotos fürs KI-Training ohne explizite Einwilligung der Fotografen wäre moralisch zwar noch immer fragwürdig, aber immerhin wären die Gesichter nicht mehr den Personen zuordenbar.

Via: Venturebeat; Quelle: Facebook AI

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über Gesichtserkennung

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!