Short

Trump schiebt seine Fehler auf KI-Manipulation. US-Demokraten haben bei einer Untersuchung über den angeblich unkorrekten Umgang von US-Präsident Joe Biden mit Geheimdokumenten fast drei Dutzend Videos mit seltsamen Äußerungen und Fehlern von Donald Trump veröffentlicht. Die Videos zeigen unter anderem, wie Trump Namen falsch ausspricht, Personen verwechselt und Dinge vergisst. In seinem eigenen sozialen Netzwerk behauptet Trump, diese Videos seien von KI manipuliert worden. Hier zeigt sich das eigentliche Risiko von Deepfakes: Wenn alles gefälscht werden kann, ist nichts mehr zweifelsfrei wahr. Das Vertrauen in die Medien erodiert komplett. Wahrscheinlich benötigt die KI-Industrie eher Kennzeichnungen für echte als für falsche Inhalte.

Anzeige
Anzeige
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Short

Der KI-Bildgenerator Imagine von Meta erzeugt ahistorische Bilder ähnlich wie Gemini von Google, zeigt ein Test von Axios. Basierend auf dem Emu-Bildsynthesemodell erzeugt Imagine Bilder für Instagram und Facebook Direct Messages. Die KI-generierten Bilder zeigen Vielfalt in Bezug auf Geschlecht und Hautfarbe, wo diese Vielfalt historisch nicht existiert hat. Beispiele sind Schwarze als Gründerväter oder als Papst. Das System generiert diese Bilder mit einem generischen Prompt wie "Gründerväter", also ohne explizit nach dem Motiv zu fragen. Einige Kritiker halten dies für geschichtsverzerrend oder rassistisch gegenüber Weißen. Der Dienst ist derzeit nur in den USA verfügbar.

Google News