Laut Philosoph und Bestsellerautor Nick Bostrom könnte totale KI-Überwachung das kleinere Übel sein, wenn das Ende der Zivilisation die Alternative ist.

Bostrom ist bekannt für seine ausgefallenen Forschungsprojekte. Nachdem er über die Möglichkeit, dass wir in einer Simulation leben, spekulierte, widmete er sich im Buch „Superintelligenz“ Künstlicher Intelligenz.

Bostrom argumentiert, dass aktuelle KI-Forschung zu einer Super-KI führen könnte, die das Ende der Menschheit bedeutet. Sein Buch wurde zum Bestseller und befeuerte die öffentliche Debatte über die Gefahren einer Super-KI.

In einer neuen Veröffentlichung widmet sich Bostrom nun der Frage, wie wir uns gegen diese und ähnlich gefährliche Technologien schützen können.

Bostroms Argument

Bostrom beginnt mit einer Metapher: Forschung sei eine Lotterie. Man wisse nie genau, welche Technologien, Ideen und Entdeckungen sie produziert. Manche seien ungefährlich, andere ein zweischneidiges Schwert: Sie sind nützlich, bergen aber auch gewisse Gefahren. Ein Beispiel: Leo Szilards Idee zur nuklearen Kettenreaktion. Es folgten Atomreaktoren und die erste Atombombe.

Nach Bostrom gibt es noch eine dritte Kategorie: Technologie, die unweigerlich zur Zerstörung der Zivilisation führt, die sie erfindet.

“Wir hatten einfach Glück.”

Diese Technologien …

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.