Gastartikel von John Sohrawardi und Matthew Wright

Ein Enthüllungsjournalist erhält ein Video von einem anonymen Whistleblower. Es zeigt einen Präsidentschaftskandidaten, der illegale Aktivitäten zugibt. Ist dieses Video echt?

Wenn ja, wäre es eine Riesennachricht – der Knüller seines Lebens – und könnte die bevorstehenden Wahlen völlig umkrempeln. Aber der Journalist lässt das Video durch ein spezielles Tool laufen, das ihm sagt, dass das Video nicht das ist, was es zu sein scheint. Tatsächlich handelt es sich um einen Deepfake, ein Video, das mit Künstlicher Intelligenz (Infos) und Deep Learning erstellt wurde.

Journalisten auf der ganzen Welt könnten bald ein solches Tool verwenden. In ein paar Jahren könnte es sogar von jedermann genutzt werden, um gefälschte Inhalte in den eigenen Social-Media-Feeds aufzuspüren.

Als Forscher, die sich mit der Deepfake-Entdeckung befassen und ein Werkzeug für Journalisten entwickelt haben, sehen wir eine Zukunft für diese Werkzeuge. Sie werden jedoch nicht alle unsere Probleme lösen, und sie werden nur ein Teil des Arsenals im breiteren Kampf gegen Desinformation sein.

Das Problem mit Deepfakes

Die meisten Menschen wissen, dass man nicht alles glauben darf, was man sieht. In den letzten Jahrzehnten haben sich versierte Nachrichtenkonsumenten daran gewöhnt, Fotos zu sehen, die mit Bildbearbeitungssoftware verändert wurden.

Videos sind jedoch eine andere Geschichte. Hollywood-Regisseure können Millionen US-Dollar für Spezialeffekte…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.