Forscher der Universität Oregon entwickeln eine Methode, die Entscheidungen von Deep-Learning-KIs transparenter machen könnte. Eine Aufmerksamkeitsanalyse gibt Hinweise auf deren Strategie.

Mit Deep Learning trainierte KIs erzielen im Vergleich zu herkömmlichen Statistikverfahren teils erstaunliche Ergebnisse, zum Beispiel bei der Bildanalyse oder maschinellen Übersetzungen.

Leider verrät so eine KI nicht, wie ihre Entscheidung zustande kommt. Bei einer Übersetzung ist das womöglich nicht so relevant, sofern das Ergebnis passt.

Doch wenn es zum Beispiel um automatisierte Kreditvergabe oder autonomes Fahren geht, sollten die Algorithmen ihren Entscheidungsprozess transparent machen. Sonst könnten Menschen den Eindruck gewinnen, dass sie einer maschinellen Willkür ausgeliefert sind.

Die Nachvollziehbarkeit ist wichtig für die ethische oder juristische Bewertung einer KI-Entscheidung. Außerdem könnte die KI-Weiterentwicklung schneller voranschreiten, wenn Forscher ihre Aussetzer besser verstehen.

Aufmerksamkeitsanalyse gibt Hinweis auf KI-Strategie

Forscher der Universität Oregon untersuchten nun, wie eine Künstliche Intelligenz während eines Entscheidungsprozesses ihre Aufmerksamkeit verteilt. Sie trainierten eine KI für verschiedene Spiele auf der Klassikkonsole Atari 260…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.