Wie kann man Künstliche Intelligenz verstehen? Der KI-Forscher Iyad Rawhan fordert eine neue Disziplin, die sich der Erforschung des Verhaltens intelligenter Maschinen widmet.

Neuronale Netze sind die Grundlage moderner Künstlicher Intelligenz. KI moderiert selbstlernend in Social Media, steuert auf Finanzmärkten, lastet Industrieanalagen aus, diagnostiziert in der Medizin oder scannt für die Verbrechensbekämpfung.

Alle diese Anwendungsszenarien – und viele mehr – haben einen zentralen Makel gemein: Wie genau eine KI zu ihrem Ergebnis gelangt und so in Handlung kommt, ist häufig nicht nachvollziehbar.

Je komplexer die KI, desto schwieriger sind ihre internen Strukturen zu durchschauen. Häufig wird daher von der Blackbox gesprochen: dem schwarzen Kasten, der zwischen Ein- und Ausgabe sitzt, und in den wir nicht hineinschauen können. So ist nicht vorhersehbar, wie sich ein KI-System in freier Wildbahn verhält.

Was bei einer KI zwischen Ein- und Ausgabe passiert, können Menschen nur erahnen. Das sorgt für Misstrauen - doch weshalb?

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.