Bevor Künstliche Intelligenz alles automatisiert, was zu automatisieren ist, soll sie sich erklären können – wenigstens in besonders kritischen Fällen. Das ist der Wunsch von Google-Chef Sundar Pichai. Andernfalls will Google entsprechende Technologie nicht anbieten.

Künstliche Intelligenz erstellt Bilder, Videos, lenkt Autos und Roboter, antizipiert den Todeszeitpunkt von Patienten, sagt Erdbeben vorher – und vieles mehr. Anders gesagt: KI funktioniert.

Aber wie sie funktioniert, das wissen die Entwickler nur ungefähr. Denn die Systeme sind mathematisch so komplex, dass zwischen Ein- und Ausgabe die Nachvollziehbarkeit verloren gehen kann. In der Fachsprache heißt das: “Blackbox”.

Im Interview mit der Frankfurter Allgemeinen Sonntagszeitung verspricht Google-Chef Sundar Pichai zukünftig mehr Transparenz im Umgang mit KI-Systemen. Andernfalls solle die Technologie nicht in sensiblen Bereichen wie der Medizin eingesetzt werden.

“Maschinelle Lernmethoden sind heute wie eine Blackbox. Wir forschen daran, wie wir die Transparenz verbessern können”, sagt Pichai. “Bevor die Systeme nicht nachvollziehbar sind, verkaufen wir sie nicht. Das ist der Kompromiss, den wir eingehen müssen.”

Aus diesem Grund biete Google zum Beispiel keine generelle Programmierschnittstelle für die Gesichtserkennung an – obwohl sie Mitbewerber wie Amazon bereits verkaufen.

Ohnehin, so Pichai, müsse die letztliche Verantwortung für eine Entscheidung immer beim Menschen liegen. Dies sei eines der wichtigsten Prinzipien in Googles KI-Strategie.

Pichai nimmt Tech-Branche in die Verantwortung

Google stellte im vergangenen Sommer ethische Leitlinien für die KI-Entwicklung vor, nachdem die eigenen Mitarbeiter zuvor wochenlang gegen den militärischen Einsatz einer Google-KI protestierten.

Schon im vergangenen Dezember warnte Pichai vor einem unbedarften Einsatz Künstlicher Intelligenz und forderte die Tech-Konzerne auf, sich selbst zu regulieren: “Ich denke, dass die Tech-Branche erkennen muss, dass sie KI nicht einfach bauen und dann reparieren kann.”

Auf das Blackbox-Problem gibt es alternative Perspektiven: Der Biomediziner und Computerwissenschaftler Vijay Pande beispielsweise argumentiert, dass letztlich auch der menschliche Verstand eine Blackbox sei. Menschen könnten sich zwar erklären, aber die wahren Ursachen für ihre Entscheidungen auch nur vermuten.

Titelbild: Maurizio Pesce bei Flickr. Lizenziert nach CC BY 2.0.

Weiterlesen über KI-Ethik:


MIXED-Podcast #147: Über die Zukunft der Computer | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.