KI-Forscher stellen eine Analyse-KI vor, die gefälschte Gesichter in Videos verlässlich entlarvt – und anschließend die letzten Bildfehler ausmerzt.

Welche der Standaufnahmen in der Titelbild-Montage sind real – und welche nur gefälscht? Die Chance ist hoch, dass das kein Mensch erkennt. Die Antwort steht im letzten Satz des Artikels.

Dass solche Video-Fälschungen immer leichter zu produzieren sind und gleichzeitig überzeugender wirken, könnte zu einem gesellschaftlichen Problem werden. Gefälschte Promi-Pornos deuten das an oder Fake-Videos von Politikern, denen jedes Wort in den Mund gelegt wird.

Fake-Videos verlässlich als solche zu entlarven, könnte daher sehr wichtig werden. Eine Forschungsgruppe der TU München sowie der Universitäten Erlangen-Nürnberg und Neapel Federico II stellen die Analyse-KI “XceptionNet” vor, die das – zumindest für den Moment – leisten kann.

Kompression schützt die Fälschung

Umso stärker ein Video komprimiert ist, desto weniger verlässlich ist die Pixel-basierte Auswertung einer Analyse-KI. Bei umkomprimierten und leicht komprimierten Videos erkennt XceptionNet so gut wie jedes Fake-Video verlässlich.



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.