Titelbild: Cyabra via Reuters

Oliver Taylor studiert, arbeitet als freier Redakteur und sieht auf seinem Profilbild aus wie ein netter junger Mann. Doch Taylor existiert gar nicht.

Die leichte und schnelle Fälschung von Fotos und Videos mit KI-Technologie, sogenannte Deepfakes, könnte dazu führen, dass der Menschheit ein neues Multimedia-Fake-Zeitalter bevorsteht. So lautet eine gängige Befürchtung.

Der Erfinder der KI-Technik hinter Deepfakes (Geschichte & Entwicklung), Ian Goodfellow, heute KI-Chef bei Apple, rät Menschen daher zukünftig zu mehr Skepsis bei Bildern und Videos. Fälschungen seien zwar schon immer möglich gewesen, aber KI-Systeme beschleunigten vorhandene Prozesse.

Menschen seien auch in der Vergangenheit ohne Videos und Fotos ausgekommen, um sich zu informieren, lautet sein pragmatisches Fazit zum Umgang mit einer möglichen Deepfake-Schwemme.

Deepfake-Fakes tröpfeln in den Alltag

Besagte Deepfake-Schwemme blieb zwar bislang aus, wohl auch deshalb, da speziell Deepfake-Videos noch recht leicht zu erkennen sind, oder umgekehrt, noch eher aufwendig in der Fälschung, wenn sie täuschend echt wirken sollen. Die Videos sind derzeit eher bei YouTube populär und dienen der Unterhaltung. Disney will Deepfake-Technik sogar ins Kino bringen.

Aber dass sich eine Multimediakrise zusammenbrauen könnte, kann man hier und da erahnen: Da wären zum Beispiel die Geschichten der fiktiven Annie Tacker und Katie Jones, deren Existenzen auch dank KI-gefälschter Porträtfotos nicht kritisch genug hinterfragt wurden.

Auf Webseiten wie thispersondoesnotexist.com kann jedermann solche täuschend echten KI-Porträts erstellen. Ein einzelner Klick genügt. Manche Anbieter bieten Zugang zu besonders gelungenen Deepfake-Porträts kostenlos und gegen Bezahlung.

Wer ist Oliver Taylor?

Auf seinem Porträtfoto wirkt Oliver Taylor wie ein freundlicher junger Mann. Sucht man im Internet nach ihm, findet man Informationen zu seiner jüdischen Herkunft, seiner Vorliebe für Kaffee und seiner Tätigkeit als freier Redakteur, der mit dem Schwerpunkt Antisemitismus für Zeitungen wie die Jerusalem Post und die Times of Israel publiziert.

Doch Recherchen von Reuters ergaben jetzt: Oliver Taylor existiert nicht. Seine angebliche Universität führt keine Unterlagen über ihn, die Telefonnummer ist nicht aktiv, auf E-Mails folgt keine Reaktion. Und Taylors Profilfoto hat eindeutige Anzeichen eines Deepfake-Porträts (siehe Titelbild).

Deepfake-Porträt macht die Fake-Identität glaubwürdiger

Reuters wurde auf Taylor aufmerksam, weil er in einem Artikel den Londoner Akademiker Mazen Masri und seine Frau Ryvka Barnard, die sich für die Rechte von Palästinensern einsetzt, als “bekannte Sympathisanten des Terrorismus” bezeichnete.

Masri unterstützte 2018 eine israelische Klage gegen die Überwachungsfirma NSO. Er wunderte sich über die Attacke eines unbekannten, jungen Studenten und über sein Porträtfoto, das er zwar nicht als Deepfake identifizieren konnte, aber mit dem “etwas nicht zu stimmen schien” – er wandte sich an Reuters.

Taylors Deepfake-Porträt - für Laien ist es kaum als Fälschung zu erkennen. | Bild: Cyabra via Reuters

Taylors Deepfake-Porträt – für Laien ist es kaum als Fälschung zu erkennen. | Bild: Cyabra via Reuters

Natürlich ist nicht das Deepfake-Porträtbild ausschlaggebend für die gelungene Täuschung des fiktionalen Charakters. Es sind die fehlenden Kontrollmechanismen der Zeitungen, die Taylors Artikel publizierten. Sie nahmen die Storys nur per E-Mail entgegen. Taylor wollte keine Bezahlung.

Aber das KI-gefälschte Foto half der Person – oder Organisation – hinter Oliver Taylor, eine glaubwürdigere, schwer nachvollziehbare Identität aufzubauen. Auch weil die getäuschten Personen gar nicht in Betracht zogen, dass Taylors Porträt eine Fälschung sein könnte.

Dabei sind Porträt-Deepfakes erst der Anfang, ihre visuelle Wirkmacht ist eingeschränkt und sie sind – für Experten – derzeit noch leicht zu identifizieren. Das könnte sich ändern: Deepfake-Experte Hao Li geht davon aus, dass im Katz-und-Maus-Spiel zwischen Fälschern und Aufdeckern in wenigen Jahren die Fälscher die Oberhand behalten.

Bilder und Videos seien nur eine Aneinanderreihung von Pixeln mit bestimmten Farbwerten, argumentiert Li. Eine perfekte Fälschung sei daher nicht ausgeschlossen. In ein paar Jahren sei es wahrscheinlich möglich, nicht identifizierbare Deepfake-Videos mit nur einem Klick zu erstellen.

Weiterlesen über Deepfakes:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: OpenXR, Oculus Half Dome und Fake-Holodecks | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.