Inhalt
newsletter Newsletter

KI-Forscher von Nvidia zeigen, wie eine Künstliche Intelligenz aus hell dunkel oder aus trocken nass macht.

Forscher des Chip-Produzenten Nvidia beschreiben in einer Publikation ein maschinelles Lernverfahren, das eigenständig visuelle Strukturen in Videos erkennen und verändern kann.

Das KI-System besteht aus zwei künstlichen neuronalen Netzen: Eines generiert die Fake-Daten, das andere bewertet deren Authentizität. Anhand der Bewertung optimiert das erste Netz den Fake-Prozess. Ende Oktober zeigten ebenfalls Nvidia-Forscher, wie mit dem gleichen Verfahren täuschend echte Portraitaufnahmen von Fake-Promis - Menschen, die gar nicht existieren - generiert werden können.

Das Besondere ist, dass die KI zuvor nicht mit umfangreichen, gekennzeichneten Datensätzen trainiert werden muss. Dieses sogenannte unüberwachte Lernverfahren ist dadurch schneller und potenziell zugänglicher. Der Nachteil ist, dass die Fälschungen im Vergleich zu überwachten Lernverfahren mit gekennzeichneten Daten anfälliger sind für Fehler. Allerdings ist die Qualität der von Nvidia produzierten Fake-Videos hoch: Die Forscher selbst bezeichnen sie als realistisch.

Anzeige
Anzeige

Gegenüber der Webseite The Verge sagt Nvidia-Forscher Ming-Yu Liu, dass die Fake-Aufnahmen beispielsweise dafür genutzt werden könnten, um selbstfahrende Autos auf verschiedene Wettersituationen vorzubereiten: "In Kalifornien regnet es nicht oft, aber wir möchten, dass unsere selbstfahrenden Autos bei Regen korrekt funktionieren. Mit der Methode könnten wir eine sonnige Fahrsequenz in eine regnerische verwandeln und das selbstfahrende Auto damit trainieren."

Laut dem Forscher gibt es noch keine konkreten Anwendungsszenarien, das Verfahren könne auch für die Bildbearbeitung genutzt werden.

Kritiker befürchten Schwemme an Multimedia-Fake-News

Die Berichterstattung über die Fake-Videos setzte der Wired-Journalist Oliver Franklin-Wallis bei Twitter in Gang. Er verlinkte das Ergebnis der Nvidia-Forscher mit einem Bild der Fake-Videos und merkte an, dass das größte Opfer Künstlicher Intelligenz nicht der Arbeitsmarkt sei, sondern "die komplette Vernichtung des Vertrauens in alles, das man sieht oder hört."

Seine Äußerung dürfte insbesondere darauf abzielen, dass durch vergleichsweise schnelle und einfache KI-Manipulation in Zukunft deutlich mehr Multimedia-Fakes entstehen könnten. Bisher ist Bild- und Videomanipulation in dieser Qualität nur ausgebildeten Fachkräften möglich, benötigt spezielles Werkzeug und ist entsprechend teuer.

Laut Googles KI-Forscher Ian Goodfellow ist es ein "historischer Glücksfall", dass sich die Menschheit in den letzten Jahrzehnten für authentische Berichterstattung auf Bilder und Videos verlassen konnte. Mit Bezug auf Nvidias Forschung sagt Goodfellow, dass Nutzer im Netz zukünftig noch misstrauischer sein müssten und Bildern und Videos nicht mehr trauen sollten. Fälschungen seien zwar schon immer möglich gewesen, aber KI-Systeme beschleunigten vorhandene Prozesse.

Empfehlung

Über KI-Fake-News diskutieren wir im aktuellen VRODO-Podcast ab Minute 26:50.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
| Featured Image: Nvidia (Screenshot bei YouTube)
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!