Inhalt
newsletter Newsletter

Es sind überwiegend Frauen, die durch Deepfake-Pornos geschädigt werden. Höchste Zeit, dass gesetzliche Regelungen den Missbrauch beenden, bevor er großflächig Schaden anrichtet.

Von Anja Klemm und Benjamin Danneberg

2017 tauchten Deepfakes erstmals auf, heute ist das Internet voll mit ihnen: Videos, in denen Gesichter von Prominenten, Politikern und Privatpersonen täuschend echt montiert und Stimmen vertauscht werden.  Durch Apps wie FakeApp, Reface oder DeepFaceLab ist das Erstellen solcher Fakes auch ohne Vorwissen möglich.

Während Deepfakes einen künstlerischen Aspekt haben können, etwa um Schauspieler in Filmen auszutauschen, werden sie in den meisten Fällen verwendet, um Pornos zu faken. Die Opfer? Fast ausschließlich Frauen.

Anzeige
Anzeige

Deepfake-Pornos: Frauen als Zielscheibe

Das Forschungsunternehmen Sensity AI hat Deepfake-Videos seit Ende 2018 nachverfolgt. Zwischen 90 und 95 Prozent dieser Videos sind demnach Pornos und davon betreffen wiederum 90 Prozent Frauen. Eine Untersuchung des niederländischen Unternehmens Deeptrace bestätigt das Ergebnis: 96 Prozent von 15.000 untersuchten Deepfake-Videos waren Pornos. Die Opfer sind zumeist Frauen des öffentlichen Lebens. Schon 2017 stellte ein Deepfaker auf reddit Videos online, in denen Schauspielerin Gal Gadot (Wonder Woman) beim Sex mit ihrem Stiefbruder zu sehen sein sollte. Andere Schauspielerinnen wie Scarlett Johansson, Emma Watson oder die Sängerinnen Britney Spears, Taylor Swift und Lena Meyer-Landrut wurden Opfer solcher Fake-Videos.

Fake-Pornos fingen zwar mit Prominenten an, Privatpersonen sind davon aber zunehmend ebenfalls betroffen. Mittlerweile verbotene Apps wie DeepNude oder ein auf DeepNude basierender Telegram-Bot, erstellen automatisiert Nackt-Deepfakes aus jedem Foto und haben bereits viel Schaden angerichtet. Sensity AI fand über 100.000 Opfer des Telegram-Bots, darunter minderjährige Mädchen.

„Das perfekte Werkzeug, um Macht und Kontrolle auszuüben“

Betrug, Erpressung, Rache, die einfache Möglichkeit, Macht und Kontrolle auszuüben – die Motive sind vielfältig und die Auswirkungen fatal. „Was für ein perfektes Werkzeug für jemanden, der versucht, Macht und Kontrolle über ein Opfer auszuüben“, sagt Adam Dodge von der gemeinnützigen Organisation ENDTab über Deepfakes.

Sophie Mortimer von der Revenge Porn Helpline in Großbritannien glaubt, dass das Problem der Fake-Pornos gerade erst begonnen hat – schließlich wissen viele Menschen noch gar nicht, was Deepfakes sind und welche Gefahr von ihnen ausgeht. Gerade die coronabedingten Lockdowns hätten viel Zeit für Experimente mit solchen Technologien gegeben: "Die Menschen hatten mehr Zeit, um zu lernen, wie man einige dieser Technologien nutzt", sagt sie. "Es ist, als ob wir den Atem anhalten und nur darauf warten, dass eine große Welle hereinbricht."

Deepfakes: Entscheidet die Zahl der Opfer über eine Gesetzesinitiative?

„Wehret den Anfängen“ scheint ein in Vergessenheit geratener Ratschlag zu sein: Während in den USA 46 Staaten ein Verbot und Strafen für sogenannte Rachepornos verhängt haben, sind nur in Virginia und Kalifornien entsprechende Gesetzte für gefakte Medien in Kraft. Mehrere Versuche zum generellen, bundesweiten Verbot von Rachepornos scheiterten daran, dass es als Eingriff in die Meinungsfreiheit wahrgenommen wird.

Empfehlung

In Großbritannien und auch in Deutschland gibt es keine expliziten Vorschriften zum Thema, maximal ein paar schwammige Aussagen. Anwälte raten Opfern unter anderem zu möglicher Verfolgung wegen Urheberrechtsverletzungen, Verstößen gegen das allgemeine Persönlichkeitsrecht, Verleumdung oder übler Nachrede. Doch es geht hier um weit mehr als um das Recht am eigenen Bild und Opfern wird deutlich größerer und nachhaltigerer Schaden zugefügt, als nur eine Beleidigung.

In anderen Ländern hatte der Kampf von Deepfake-Opfern gegen den Missbrauch der Technologie Erfolg. Die Australierin Noelle Martin musste im Alter von 18 Jahren erfahren, dass sie Opfer eine Fake-Porno-Kampagne geworden war. Sie engagierte sich in Folge für eine Verschärfung von Gesetzen – seit 2018 sind derartige Deepfakes in Australien verboten und werden mit mehrjähriger Haft bestraft.

Braucht es immer erst viele Opfer, bevor Missbrauch ein gesetzlicher Riegel vorgeschoben wird? In Zeiten, in denen Deepfakes auch für Fake-News und Meinungsmache eingesetzt werden könnten, hinkt die Politik der Technik weiter hinterher und kommt ihrer Pflicht zum Schutz der Gesellschaft nicht ausreichend nach. Auch die Plattformen, die solche Videos hosten agieren zögerlich: Die Porno-Seite Pornhub löschte erst nach einem massiven Skandal zahlreiche Fake-Videos.

Unregulierte Deepfakes sind eine allgemeine Gefahr für die Gesellschaft

Abseits von Fake-Pornos stellen Deepfakes eine allgemeine Gefahr dar: Jeder könnte theoretisch alles sagen oder sogar tun. Dank Deepfake-Technologie beleidigt etwa ein Fake-Obama seinen Nachfolger Donald Trump. Das Portal Buzzfeed möchte damit auf die Gefahr von Deepfakes hinweisen.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Solche politischen Deepfakes gelten als mögliches Instrument zur Wahlmanipulation und wurden im US-Wahlkampf 2020 von YouTube, Facebook, Twitter und TikTok verboten. Weitere manipulierte Videos, etwa Satire oder Kunst, werden gekennzeichnet.

Doch es braucht nicht immer Bild oder Video: Betrüger erbeuteten 220.000 Euro durch einen Anruf beim CEO einer britischen Firma mit einer Fake-Stimme. Die Stimme habe bei drei verschiedenen Anrufen den richtigen Akzent und die richtige Tonlage gehabt, gab das Opfer an.

Prävention statt Löschung

Die aktuelle Antwort auf die Deepfake-Gefahr: Erkennen und löschen oder markieren. Qualifizierte Cyber-Sicherheitsprogramme sollen Deepfakes erkennen. Künstliche Intelligenz und Blockchain könnten künftig fälschungssichere digitale Fingerabdrücke für Videos registrieren. Und es gibt Programme, die speziell aufgebaute digitale Artefakte in Videos einfügen – damit verdecken sie die Pixelmuster, die eine Software zur Gesichtserkennung im Bild nutzt.

Doch es kann nicht dabei bleiben, im Nachhinein zu löschen – der Schaden ist dann schon angerichtet. Insbesondere wenn viele Menschen diese Gefahr noch gar nicht kennen, wird es den überwiegend weiblichen Opfern umso schwerer gemacht, sich erfolgreich zu wehren. Es ist Zeit, dass klare gesetzliche Regelungen und eine gezielte Strafverfolgung auch in Deutschland dem Missbrauch dieser Technik einen Riegel vorschieben.

Via: Technology Review

Weiterlesen über Deepfakes

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!