Menschen können bestenfalls erahnen, was bei einer komplexen Künstlichen Intelligenz zwischen Ein- und Ausgabe passiert. Diese Blackbox ist vielen unheimlich – doch weshalb eigentlich?

Das künstliche Denken ist ein undurchsichtiger, mathematisch extrem komplexer Prozess über viele Schichten hinweg, der rückwirkend nicht mehr im Detail nachvollzogen werden kann. Der Entscheidungsfindungsprozess einer KI wird daher häufig als Blackbox bezeichnet – ein dunkler Bereich, in den der menschliche Intellekt kein Licht bringen kann.

Die Folge: Menschen müssen auf das Urteil einer Maschine vertrauen, so wie sie auf das Urteil eines anderen Menschen vertrauen würden. Das ist unheimlich, denn anders als zu Menschen können wir zu Maschinen viel schwieriger eine intuitive, emotionale Verbindung aufbauen.

Entsprechend kann KI-Entscheidungen ein Gefühl der Anonymität und des Kontrollverlustes begleiten: Die Maschine stellt uns vor vollendete Tatsachen. Sie erklärt sich nicht und kann nicht zur Rechenschaft gezogen oder beeinflusst werden. Insbesondere im medizinischen Bereich ist das heikel, aber gerade hier bieten KI-Systeme großes Potenzial, verlässlicher und früher zu diagnostizieren als Ärzte.

Das menschliche Gehirn: Auch nur eine schwarze Box?

Der Biomediziner und Computerwissenschaftler Vijay Pande, der als Partner des Risikokapitalunternehmens Andreessen Horowitz auch in KI-Unternehmen investiert, fürchtet diese Blackbox nicht.

Er sieht im undurchsichtigen Denkprozess einer KI keinen grundlegenden Unterschied zur Entscheidungsfindung eines Menschen: …

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: OpenXR, Oculus Half Dome und Fake-Holodecks | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.