Forscher untersuchen, wie neuronale Netzwerke “denken”. Die Ergebnisse zeigen, dass ein Netzwerk ähnlich dem menschlichen Gehirn Konzepte bilden kann: Ein Baum ist ein Baum ist ein Baum – und der wächst vielleicht in den Himmel, aber nicht im Himmel.

Neuronale GA-Netzwerke (Generative Adversarial) waren für einige der eindrücklichsten KI-Entwicklungen der letzten Jahre verantwortlich: Videofälschungen mit Deepfakes, das erste jemals versteigerte KI-Bild, künstliche Menschen und virtuelle Straßenzüge.

Die grundlegende Funktionsweise ist immer gleich: In einem GAN kooperieren zwei KI-Agenten. Einer erstellt ein Bild, der andere prüft es auf Glaubwürdigkeit. Die beiden Agenten spielen ein Bild hin und her, bis es passend zu den Anforderungen überzeugend aussieht. Diese Selbstkontrolle macht GANs so mächtig.

Forscher des MIT-IBM Watson Labs untersuchten die Netze nun auf ihre genaue Funktion: Wie „denken“ neuronale Netzwerke?

Bäume sind Bäume

In ihrem Experiment fütterten die Forscher ein GAN mit verschiedenen Landschaftsaufnahmen – allerdings ohne vorgegebene Kategorien. Nach dem Training ließen die Forscher das Netzwerk Bilder generieren und schalteten immer wieder vereinzelte Abschnitte des Netzwerks aus.

Sie stellten fest: Im Netzwerk hatten sich Bereiche gebildet, die bestimmte Motive – zum Beispiel Bäume – repräsentierten. Und das, obwohl diese Bäume Form und Farbe auf jedem Foto änderten.


MIXEDCAST #171: Das Carmack-Drama, Stormland und Magic Leak |
Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.