Manipulation durch Deepfakes: Studie widerspricht Befürchtungen

Manipulation durch Deepfakes: Studie widerspricht Befürchtungen

Einer Studie des MIT zufolge haben Deepfake-Videos im Vergleich zu Fake-Texten nur eine minimal höhere Wahrscheinlichkeit, menschliches Verhalten und politische Ansichten zu beeinflussen.

Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

Audio- und Video-Deepfakes sind ein Symptom des rasanten Fortschritts bei synthetischen Medien generiert mit Künstlicher Intelligenz. Häufig wird ihr Risikopotenzial beschrieben, etwa für Betrugsdelikte, sogar bei Banküberfällen, Falschinformationen und bei sexuellem Missbrauch.

Zumindest bei Betrug und Manipulation im politischen Kontext gibt die Studie „The (minimal) persuasive advantage of political video over text“ des Massachusetts Institute of Technology (MIT) jetzt eine gewisse Entwarnung.

In ihrer Arbeit untersuchten die Forschenden, ob manipulierte Videoclips stärkere Auswirkungen auf Menschen haben als textbasierte Fake-News-Aussagen. Das Ergebnis widerlegt bisherige Annahmen, dass Videos als Informationsquelle weitaus überzeugender sind als Texte.

Höhere Glaubhaftigkeit führt nicht automatisch zu stärkerer Manipulation

Mit mehr als 7500 Proband:innen aus unterschiedlichen Regionen der USA ist die MIT-Untersuchung die bislang umfangreichste Studie zum Meinungsbildungspotenzial von Deepfakes. In einem Experiment teilten die Forschenden die Teilnehmenden in drei verschiedene Gruppen ein.

Die erste Gruppe bekam ein zufällig ausgewähltes Video mit politischem Inhalt zu sehen, die zweite Gruppe erhielt die Transkription dieses zufällig ausgewählten Videos, während die dritte Gruppe – die Kontrollgruppe – keinerlei Material bekam. Im zweiten Schritt sollten die Teilnehmenden in einem Fragebogen die Glaubwürdigkeit der jeweiligen Text- oder Videobotschaften beurteilen, und ob sie den enthaltenen Aussagen zustimmen.

Die MIT-Forschenden kamen nach der Auswertung der Fragebögen zu dem Ergebnis, dass „sehen“ in der Tat meist „glauben“ bedeutet. Die Proband:innen schätzten ein Ereignis glaubhafter ein, wenn sie die Information als Video anstatt in Textform konsumierten.

Empfohlener Beitrag

Deepfake Tom Cruise
Deepfake Tom Cruise lockt echten Tom Cruise auf TikTok
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

Doch hinsichtlich der Überzeugungskraft war der Unterschied zwischen Video und Text weniger stark ausgeprägt. Bei Verhalten oder Meinung der Proband:innen ließen sich sogar nur minimale Änderungen feststellen.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 2,80 € / Monat
logo

„Nur weil Video glaubhafter ist, bedeutet das nicht, dass Menschen leichter überzeugt werden können“, fasste Adam Berinsky, einer der MIT-Forscher, das Ergebnis zusammen. Die Forschenden weisen in ihrem Bericht ebenso darauf hin, dass sich die Auswirkungen im realen Leben stärker vom Experiment unterscheiden könnten.

Einerseits seien Fake News in Wirklichkeit keine bloße Transkription von audiovisuellem Material, sondern in Form von Artikeln oder Kommentaren strukturiert. Andererseits sei es tendenziell möglich, dass Videos mehr Aufmerksamkeit auf sich ziehen als Text und negative Effekte entsprechend stärker skalierten.

Das bedeute beispielsweise, dass Social-Media-Beiträge in Videoform stärker wahrgenommen würden und so das minimal höhere Manipulationspotenzial von Deepfake-Videos Verhalten und Meinungen der Betrachter:innen daher dennoch stärker beeinflussen könnte als Fake-Texte.

Deepfakes sind nicht harmlos

Seit pornografische Deepfakes Ende 2017 stärker ins öffentliche Bewusstsein vordrangen, warnen Politiker:innen und Forschende immer wieder vor den Risiken. Die deutsche Bundesregierung etwa bezeichnete Deepfakes 2019 als potenziell „große Gefahr für Gesellschaft und Politik“, die aber nicht überbewertet werden dürfe, weil allein die Überbewertung zu einem Vertrauensverlust in Medien führen könne. Nicht das Vertrauen in eine Falschinformation wäre dann das Problem, sondern das verlorengegangene Vertrauen in korrekte Informationen – Orientierungslosigkeit wäre das Resultat.

Ein Reddit-Nutzer erstellt mit einfachen Mitteln Fake-Pornos, in denen die Gesichter von Promis jene der realen Darsteller überlagern.

Ein Beitrag mit Folgen: Der Reddit-Nutzer „deepfakes“ meldete sich Ende 2017 mit ersten KI-Fake-Pornos bei Reddit zu Wort. In den Folgejahren entwickelte sich Deepfake-Technik mit hohem Tempo weiter. | Bild: MIXED (Screenshot)

Durch das Internet können Deepfakes zudem innerhalb von Sekundenschnelle um den Globus verbreitet werden und dabei Millionen von Menschen erreichen. Die EU etwa denkt daher über eine Kennzeichnungspflicht für Deepfakes nach.

In einer kürzlich veröffentlichten EU-Studie zu Deepfakes befassten sich Forschende aus den Niederlanden, Tschechien und Deutschland mit den Risiken KI-gefälschter Medien und mit möglichen Lösungen. Die Forschenden gehen davon aus, dass sich „Individuen und Gesellschaften künftig immer häufiger mit visuellen Desinformationen konfrontiert sehen“ und fordern insbesondere eine bessere Aufklärung.

Weiterlesen über Deepfakes:

Quellen: Forschungspapier