KI-Forscher von OpenAI zeigen, dass ihre neueste Bilderkennungs-KI multimodale Neuronen besitzt, die abstrakte Konzepte repräsentieren. Diese speziellen Neuronen kannte man bislang nur vom menschlichen Gehirn.

Anfang Januar veröffentlichte OpenAI die beeindruckende Bild-KI DALL-E, die fotorealistische Bilder oder Zeichnungen aus einer Textbeschreibung generiert. Deren Ergebnisse zeigen, wie mächtig die Kombination von Text- und Bilddaten beim Training von KI-Systemen ist.

DALL-E generiert jedoch auch Bilder, die nicht wirklich zur vorgegebenen Textbeschreibung passen. Daher setzt OpenAI auf die ebenfalls mit Text- und Bilddaten trainierte Bilderkennungs-KI CLIP, um die von DALL-E produzierten Ergebnisse nachzusortieren.

In Tests zeigte sich, dass CLIP besser generalisieren kann als andere Bilderkennungssysteme, aber in einigen Bildaufgaben schlechter abschneidet als spezifisch trainierte Systeme.

KI-Forscher von OpenAI haben jetzt diese Fähigkeit zur Generalisierung genauer untersucht, indem sie einen Blick in das Innenleben des neuronalen Netzes geworfen haben.

| OpenAI CLIP Multimodal Neuron Title

Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.