Ob Rachepornos oder politische Statements: Mit Künstlicher Intelligenz gefälschte Videos können eine Bedrohung sein für einzelne Personen und die Gesellschaft. Daher braucht es verlässliche Methoden, um KI-Fakes zu entlarven. Forscher stellen jetzt einen Ansatz vor, der Deepfakes-Videos entdeckt.

Gut gemachte Deepfakes-Videos können unbedarfte Zuschauer davon überzeugen, dass eine Person in einem Video Sachen sagt oder Dinge tut, die sie in der Realität nie gesagt oder getan hat.

Da Videos durch ihre audiovisuelle Überzeugungskraft in hohem Maße suggestiv sind – noch viel stärker als gefälschte Texte oder Fotos – birgt das Gefahren. Hinzu kommt, dass Videos in Social Media zu den am meisten geteilten Inhalten gehören.

Ein zum richtigen Zeitpunkt in die Social-Newsfeeds gehebeltes KI-Fake-Video könnte enorme politische Sprengkraft bergen. Da die KI-Methode Fälschungen von Videos im Vergleich zu herkömmlicher Bildbearbeitung deutlich erleichtert und beinahe jedem zugänglich macht, wächst die Bedrohung.

Das folgende Video von Obama wurde beispielsweise mit Deepfakes erstellt. Die Gesichtszüge von Obama wurden mit jenen eines Schauspielers synthetisiert. Der lässt den früheren US-Präsidenten seine eigenen Worte wie eine Marionette nachsprechen.

Deepfakes blinzeln nicht

KI-Forscher der Albany Universität New York



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.