Nicht etwa Killerroboter oder Büroklammern sind laut des Historikers Yuval Noah Harari die beiden größten KI-Gefahren, sondern Ungleichheit und Unmündigkeit.

Im Gespräch mit Facebook-Chef Mark Zuckerberg verrät der bekannte Historiker Yuval Noah Harari (u.a. “Eine kurze Geschichte der Menschheit”) die aus seiner Sicht beiden größten KI-Gefahren. Und es ist nicht die typische Sci-Fi-Dystopie von Killerrobotern oder einer Super-KI, die die Menschheit mehr oder weniger versehentlich auslöscht.

“Ich bin ein großer Science-Fiction-Fan”, sagt Harari. “Aber sie hat ein paar schlechte Sachen gemacht.” Sie habe bei KI-Gefahren den Fokus auf Szenarien gelegt, die wahrscheinlich nicht eintreten werden, wie Roboter, die Menschen töten. “Ich habe viel mehr Sorge vor Robotern, die allen Befehlen gehorchen, als vor solchen, die rebellieren”, meint Harari.

Die eigentliche Gefahr sieht Harari in einer zunehmenden Ungleichheit zwischen den Ländern bei Wohlstand, Macht und Selbstbestimmung. “Es wird einige Länder geben, die die neue KI-Ökonomie leiten und dominieren. Das wird ein so großer Vorteil sein, dass er alles bisher Dagewesene übertrumpft.”

Die industrielle Revolution habe schon eine große Lücke geschaffen, die sich erst jetzt, circa 150 Jahre später, langsam schließe. Mit KI könne sich diese Lücke wieder weiten und das stärker als je zuvor.

Facebook-Chef Mark Zuckerberg hofft, dass eine freie Wissenschaft in Kombination mit weltwei…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.