Etwas Unsicherheit könnte die Entscheidungsfreudigkeit Künstlicher Intelligenz reduzieren – und dem Menschen Verantwortung zurückgeben.

KI-Systeme rechnen so komplex, dass ihre Entscheidungen für Menschen nicht mehr vollständig nachvollziehbar sind. Der daraus resultierende Kontrollverlust ist ein Drohszenario für die Menschheit.

Denn eine Maschine muss keinen boshaften Eigensinn entwickeln, um Schaden zu verursachen: Ungeschickte oder nicht ausreichend konkrete Anweisungen sowie problematische Datensätze fürs KI-Training könnten gefährliche Kettenreaktionen zur Folge haben.

Die Steuerung eines KI-Systems ist daher alles andere als banal: Die Komplexität der realen Welt ist so hoch, dass eine einzelne Entscheidung unzählige Konsequenzen haben kann. Nicht alle Konsequenzen sind berechenbar, da sie nicht eindeutig sind.

Wie zum Beispiel übersetzt man Freiheit oder Wohlbefinden in eine Formel? Menschen sind sich nicht einmal untereinander einig, wie diese Begriffe zu deuten sind.

Unsichere KIs für mehr Sicherheit

Eine Lösung für dieses Dilemma könnte sein, KI-Systeme differenzierte Überlegungen und Planungen anstellen zu lassen – und die letztliche Entscheidung über eine Aktion zurü…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.