Der Philosoph Nick Bostrom spricht über die Gefahren einer Superintelligenz und wie KI-Sicherheitsforschung mit ihnen umgehen sollte. Ich fasse die wesentlichen Punkte des Interviews für euch zusammen.

Nick Bostrom ist Autor der 2014 erschienenen Monographie „Superintelligenz“ und Professor für angewandte Ethik in Oxford sowie Vorsitzender des dort von ihm gegründeten Future of Humanity Instituts. Er ist außerdem wissenschaftlicher Berater des Future of Life Instituts.

In seinem Buch erörtert Bostrom die Möglichkeit einer künstlichen Superintelligenz. Diese könne aus einer Allgemeinen Künstlichen Intelligenz (AGI) entstehen, die unser Intelligenzniveau erreicht und es durch Selbstverbesserung explosionsartig überschreitet.

Bostrom geht auf daraus resultierende Gefahren und den Umgang mit ihnen ein. Sein Buch brachte KI-Sicherheit stärker in die öffentliche Debatte, da es unter anderem von Bill Gates und Elon Musk empfohlen wurde.

Grundsätzliche Sicherheitsprobleme

In einem Podcast (siehe unten) unterscheidet Bostrom zwei Bereiche der KI-Sicherheit: Risiken, die von der KI selbst ausgehen und Risiken, die durch den Missbrauch von KI durch Menschen entstehen.

Beide Risiken gebe es schon mit heutiger Künstlicher Intelligenz. Doch Bostrom ist der Ansicht, dass die aktuellen Gefahren überschätzt und die zukünftiger KIs unterschätzt werden: Erst eine Superintelligenz könne die Entwicklung der Menschheit nachhaltig verändern. Aktuelle KI-Technologie könne höchstens einen kleinen Rückschlag auslösen.

Wann erwartet uns eine Superintelligenz?

Doch ab wann sollten wir uns Sorgen machen? Da bisher keine klare Vorstellung der Architektur einer AGI existie…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Apple waits, Oculus goes | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.