Als KI-Chefwissenschaftler beeinflusst Yann LeCun Facebooks Strategie für Künstliche Intelligenz. In einem aktuellen Interview spricht er über die eigentliche Gefahr aktueller KI-Technik, die es nicht in Sci-Fi-Dystopien schafft.

Ein Killerroboter reist in die Vergangenheit, um dort den menschlichen Widerstand gegen Maschinen an der Wurzel auszureißen. Eine Stimme aus dem Nichts gebietet unsichtbar über unser Schicksal, kontrolliert jeden unserer Schritte, längst selbst jeglicher Kontrolle entflohen. Ein allmächtiges KI-Wesen sperrt die Menschheit in eine Simulation, um sie in der Realität als Energieressource in Überlebenstanks zu halten.

So oder so ähnlich sehen gängige Science-Fiction-Erzählungen für unsere Zukunft mit Künstlicher Intelligenz aus. Die Vorstellung vieler Menschen ist von diesen KI-Dystopien geprägt.

Science-Fiction-Dystopie vs. reale Bedrohung

“Bei jeder neuen Technologie haben Menschen Angst, dass sie die gesellschaftlichen Verhältnisse durcheinanderwirft. Und genau das tut Technologie! Meist verändert sie die Welt zum Guten. Bei KI ist die Angst etwas größer, weil wir von Science-Fiction-Filmen geprägt sind”, sagt LeCun dem Spiegel.

Die Realität sei aber eine andere: “KI fehlt das, was wir guten Menschenverstand nennen. In diesem Sinne ist sie sehr beschränkt.”

Aus dieser Beschränktheit leitet  LeCun die eigentliche KI-Gefahr ab: “Was wir an KI eher fürchten sollten, ist, dass sie nicht gut genug funktioniert.”

KI-Risiko: Zu gehorsame Roboter

Wer die KI-Entwicklung aufmerksam verfolgt, findet Beispiele für die von LeCun erwähnte schlecht funktionierende KI: Algorithmen, die Klickverhalten einseitig beeinflussen und Nutzer in eindimensionalen Themenwelten gefangen halten. Rassistische oder sexistische menschliche Vorurteile in Daten für das KI-Training, die von den Systemen unreflektiert übernommen und ausgeführt werden.

Die Dystopie eines totalitären Überwachungsstaates, die sich durch die automatisierte Mustererkennung von KI-Systemen – beispielsweise für die Gesichtserkennung – erfüllen könnte. Eine zunehmende Ungleichheit zwischen Ländern, die KI für ökonomische Zwecke nutzen und solchen, die keinen Zugang zum maschinellen Lernen haben. Das sind die akuten Risikopotenziale bei der KI-Entwicklung.

Hinzu kommt das übergeordnete Drohszenario, dass Menschen KI durch ungenau vorgegebene Ziele falsch einsetzen. Das Resultat wäre ein KI-System, das unaufhaltsam und stumpf sein Ziel verfolgt, selbst dann, wenn es so der Menschheit schadet, sie vielleicht sogar ausradiert.

“Ich habe viel mehr Sorge vor Robotern, die allen Befehlen gehorchen, als vor solchen, die rebellieren”, sagte der Historiker Yuval Noah Harari im letzten Jahr in einem Interview mit Facebook-Chef Mark Zuckerberg.

LeCun öffnete Facebooks KI-Forschung

Ähnlich sieht es auch LeCun: Jede Technologie könne für gute und schlechte Zwecke eingesetzt werden. Auf seiner Forschung basierten beispielsweise KI-gestützte Bremssysteme, die ein Kind auf der Straße erkennen und eine Vollbremsung einleiten könnten. Autoritäre Regime hingegen könnten KI für die Massenüberwachung nutzen.

“Es hängt von der Stärke unserer demokratischen Institutionen ab, wie Technologie eingesetzt wird”, sagt LeCun. Er lehne es ab, an Waffen und an geheimen Projekten zu forschen. Seine Einstiegsbedingung als KI-Forscher bei Facebook sei daher die öffentliche Publizierung wissenschaftlicher Ergebnisse gewesen.

“Alles, was wir für Facebook erforschen, wird veröffentlicht, in den meisten Fällen als offener Quellcode. Nur so können wir die besten Forschenden anwerben”, sagt LeCun. Und fügt später hinzu: “Bei all den Firmen, mit denen ich es bisher zu tun hatte, gehört Facebook zu den angenehmsten.”

Gemeinsam mit den KI-Forschern Geoffrey Hinton und Yoshua Bengio wurde Yann LeCun im letzten Jahr mit dem Turing-Award ausgezeichnet, dem wichtigsten Preis der Informatik.

Titelbild: O’Reilly Internal bei Flickr. Lizenziert nach CC NY 2.0.

Weiterlesen über Facebook-KI:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: So steht es um VR-Gaming | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.