Die ersten Deepfakes waren Sexfilme, in denen die Gesichter von Pornodarstellerinnen durch die weiblicher Stars ausgetauscht wurden. Eine aktuelle Bestandsaufnahme zeigt, dass immer mehr solcher KI-Fakes im Netz kursieren. Die großen Pornoseiten tun indes wenig oder gar nichts gegen deren Verbreitung.

Ende 2017 begann ein anonymer Reddit-Nutzer namens “deepfakes” Fakepornos berühmter Schauspielerinnen wie Gal Gadot zu veröffentlichen. Weil die Videos mit KI-Technologie hergestellt wurden, teils recht authentisch wirkten und relativ leicht hergestellt werden konnten, sorgten die Videos für große Medienaufmerksamkeit.

Der Profilname des Pornofälschers wurde so zum Synonym für Deepfakes, also KI-gestützter Synthese von Bild- und Audiomaterial (siehe Geschichte der Deepfakes).

Im Netz formierten sich darauf Deepfaker-Communitys, die einschlägige Videos herstellten und verbreiteten, darunter solche, in denen Privatpersonen und Ex-Partnerinnen auftauchten.

KI-Tricks für jedermann

Pornhub begann in Folge rasch, Sex-Deepfakes zu löschen und Plattformen wie Reddit und Discord bannten Foren und Kanäle der Pornofälscher. Begründet wurde das Vorgehen mit der uneinvernehmlichen Natur der Videos, die die Persönlichkeitsrechte und Würde der dargestellten Personen verletzen sowie deren Ruf schädigen könnten.

Während einzelne US-Bundesstaaten erste Gesetze gegen Deepfake-Rachepornos auf den Weg brachten, versuchten clevere Geschäftemacher Profit aus der neuen KI-Tricktechnik zu schlagen, indem sie Kunden Deepfake-Rollen in Sexfilmen anboten.

Die Deepfake-Technologie entwickelte sich derweil weiter, sodass die Herstellung immer schneller und leichter von der Hand geht (siehe Deepfake selbst erstellen – so geht es, so lange dauert es) und authentischere Ergebnisse zu Tage fördert. In Zukunft könnten täuschend echte Deepfakes nur noch wenige Klicks entfernt sein. KI-Experten warnen deshalb vor einem neuen Medienzeitalter, in dem Bilder, Videos und Audioaufnahmen keine Beweiskraft mehr haben.

Die Schmuddel-Fakes dominieren

Porno-Deepfakes sind in den letzten Jahren in den Hintergrund gerückt, zumindest was die öffentliche Wahrnehmung angeht. Heute sind es Hollywood-Deepfakes, die bei Youtube und Co. für Aufsehen sorgen. Im Vorfeld der US-Präsidentschaftswahlen wird zudem viel über die Gefahr von Polit-Deepfakes diskutiert. Politiker befürchten, dass die Technologie für Propaganda und Fake News missbraucht werden könnte.

Doch Porno-Deepfakes sind vielleicht zu Unrecht in Vergessenheit geraten: Ein Wired-Bericht zeigt, dass sich solche Videos so stark wie nie verbreiten. Das Techmagazin zitiert Statistiken des Start-ups Sensity, das sich auf die Erkennung von Deepfakes spezialisiert hat.

Sensity zufolge steigt die Zahl der Deepfakes exponentiell: Fand das Unternehmen im Juli 2019 noch knapp 15.000 Deepfakes im Netz, sind es ein Jahr später schon fast 50.000. Bei den Videos des Vorjahres handelt es sich fast ausschließlich um Porno-Deepfakes mit weiblichen Opfern.

KI-Pornofälschungen sind ein Hit

Das Unternehmen registrierte 2020 bis zu 1.000 hochgeladene Deepfake-Pornos pro Monat und 2019 wurden die Videos auf den beliebtesten vier Deepfake-Pornoseiten mehr als 134 Millionen Mal aufgerufen. Auf herkömmlichen Pornoplattformen dürfte diese Zahl noch größer sein.

Manche Deepfake-Pornos auf Webseiten wie XVideos, Xnxx und xHamster verzeichnen Aufrufe im zweistelligen Millionenbereich und bringen den Betreibern damit viel Werbeeinnahmen ein. Wer auf den Plattformen nach Deepfakes sucht, findet ohne Probleme gefälsche Pornos von Stars wie Emma Watson, Natalie Portman und Taylor Swift.

Versuche seitens Wired, eine Stellungnahme von den Betreibern von XVideos und Xnxx zu erhalten, liefen ins Leere. Der Videpräsident von xHamster antwortete auf die Anfrage und sagte, dass die Webseite keine speziellen Richtlinien für Deepfakes führe, die KI-Fakes jedoch wie alle nichteinvernehmlichen Inhalte behandle und nach erfolgter Prüfung entferne. Die von Wired gefundenen Videos seien den Moderatoren zur Prüfung vorgelegt worden.

Pornoseiten sehen wenig Handlungsbedarf

Sensity-CEO Giorgio Patrini bezweifelt, dass die Pornoseiten in Deepfakes ein Problem sehen. “Solange es keinen starken Grund für sie gibt, Deepfakes zu löschen und zu filtern, wird nicht viel passieren“, sagt Patrini gegenüber Wired.

Klar: Für die Webseiten bedeutet die Deepfake-Moderation einen Mehraufwand, besonders dann, wenn nicht klar ist, bei welchen Videos es sich um Deepfakes handelt. Die Videos wirken immer echter und können in bestimmten Fällen nur durch spezielle Deepfake-Erkennungssoftware identifiziert werden.

Da sich KI-Technologie (News) rasch weiterentwickelt, liefern sich Entwickler von Erkennungsalgorithmen und Deepfaker ein beständiges Katz-und-Maus-Spiel. Experten gehen nicht davon aus, dass man das KI-Fake-Problem mit rein  technologischen Mitteln dauerhaft in den Griff bekommen wird.

Eine große Herausforderung für die Gesellschaft

Nun beobachtet Sensity, dass auch weniger bekannte Menschen Opfer von Deepfake-Pornos werden, wie zum Beispiel Influencer auf Youtube, Twitch und Instagram. “Ich glaube, dass sich die Technologie bald in einem größeren Ausmaß gegen private Individuen richten wird”, sagt Patrini. Dann werde irgendwann der Punkt erreicht, an dem die Gesetzgeber aufmerksam werden.

“Diese Technologie ist frei verfügbar und sie entwickelt sich mit einer Geschwindigkeit, mit der die Gesellschaft nicht Schritt halten kann”, sagt Nina Schick, die Autorin des Buchs “Deepfakes and the Infocalypse” (Amazon-Link). “Wir sind nicht vorbereitet auf das Zeitalter synthetischer Medien, in dem selbst Videos zu etwas werden, das fast jeder manipulieren kann.”

Quelle: Wired

Weiterlesen über Deepfakes:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Alles zur Facebook Connect 2020 | Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.