Der KI-Algorithmus Deepfakes könnte so etwas wie die Büchse der Pandora für gefälschte Videos sein. Plattformen wehren sich vergebens.

Nach Pornhub, Twitter und Gfycat hat auch Reddit die Fake-Porno-Gemeinschaft vollständig von der eigenen Plattform verbannt. Als Grund geben die Reddit-Betreiber an, dass es sich bei den Fake-Videos um unfreiwillige Pornografie handelt. Die entsprechende Regel wurde explizit um einen Halbsatz zu Fälschungen ergänzt.

Regeln sind das eine, diese durchzusetzen etwas völlig anderes. Das gilt speziell fürs Internet: Natürlich verschwinden durch die Löschaktionen weder gefälschte Promi-Pornos noch die Fälschungsmethode aus dem Netz. Und die Nutzer, die diese Pornos erschaffen und ansehen, sowieso nicht.

Das Internet ist voller Deepfake-Pornos

So sind bekannte Webseiten für kostenlose Pornovideos voll mit den unfreiwilligen Promi-Pornos. Sie können über eine einfache Suchanfrage gefunden werden, obwohl die Plattformbetreiber zum Teil Löschaktionen ankündigten. Der Algorithmus hinter den Fälschungen wird bei Reddit weiter diskutiert und verbessert, beispielsweise in den Gruppen Safe for Work Deepfakes und Fakeapp. Die Porno-Fälscher organisieren sich an anderer Stelle neu.

In einer E-Mail an die Künstliche Intelligenz: Reddit löscht Fake-Pornos, doch der Zug ist abgefahren was last modified: März 13th, 2019 by Matthias Bastian


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.