Reddits KI-Faker haben ein neues Opfer gefunden: Nicolas Cage. Dank Künstlicher Intelligenz taucht der bekannte US-Schauspieler plötzlich in Filmen auf, in denen er nie mitgespielt hat.

Im Dezember berichtete ich erstmals über mit Künstlicher Intelligenz erstellte Fake-Pornos (Deepfake), in denen die Köpfe bekannter US-Frauen jene von Pornodarstellerinnen ersetzen. Seitdem wächst die Sexfälscher-Gemeinschaft und verselbstständigt sich zunehmend.

Gerade eben erst beendete der der Chat-Service Discord einen Deepfake-Kanal, in dem die Nutzer gefälschte Pornographie tauschten. Sexuelle Darstellungen sind bei Discord zwar nicht grundlegend untersagt, aber der Betreiber wertet die Fake-Pornos als Vergewaltigungen.

Besonders kritisch: In der Gruppe wurden Fake-Pornos mit Ex-Freundinnen oder Klassenkameradinnen in der Hauptrolle geteilt. Für diese müssen die betroffenen Frauen nicht einmal im echten Leben fotografiert oder gefilmt werden: Eine größere Anzahl öffentlich zugänglicher Fotos bei Instagram oder Facebook kann ausreichen, um die Fälschung zu erzeugen. Je mehr Aufnahmen die KI vorab analysieren kann, desto glaubwürdiger wird die anschließende Fälschung.

[advert i…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.