Das KI-basierte Text-Adventure „AI Dungeon“ verspricht seinen Spielern unendliche Abenteuer. Doch jetzt sehen sich die Entwickler mit den dunklen Seiten maschineller Textgenerierung konfrontiert.

Maschinelle Objektivität ist eine Illusion: KI-Systeme werden mit von Menschen gemachten Daten trainiert. Sie übernehmen die darin enthaltenen Informationen, Emotionen, Bedürfnisse und Haltungen.

Besonders offensichtlich wird das bei Künstlicher Intelligenz, die Texte generiert: Hier laufen vorurteilsbehaftete Prozesse und Einschätzungen nicht im Verborgenen ab, wie es vielleicht bei einer Gesichtserkennung der Fall ist. Eine Text-KI wie OpenAIs GPT-3 schreibt sie explizit aus, macht sie sichtbar.

Gerade bei GPT-3 konnten Forscher bereits teils drastische Vorurteile mit einem Hang zur Radikalisierung feststellen: GPT-3 übernimmt menschliche Vorurteile nicht nur, sie verstärkt und erweitert sie, indem sie neue erfindet.

AI Dungeon kämpft mit maschinisierten menschlichen Abgründen

Latitude, das Studio hinter AI Dungeon, lernt diese auf die Maschine übertragenen menschlichen Abgründe jetzt aus nächster Nähe kennen: Ein Monitoring-System von OpenAI deckte vergangenen Monat auf, dass manche Spieler GPT-3 absichtlich so betexten, dass die Text-KI Vergewaltigungsszenarien mit Kindern generiert.

Dass GPT-3 solche Szenarien grundsätzlich beschreiben kann, ist dem Studio schon länger bekannt. Bei einem Testlauf im letzten Jahr wurde daher das Wort „Vergewaltigung“ durch „Respekt“ ersetzt – diese Funktion wurde allerdings aufgegeben.

OpenAI CEO Sam Altman distanziert sich in einem Statement gegenüber Wired von AI Dungeon, das bislang als Vorzeigebeispiel für den kreativen KI-Einsatz galt. „Das ist nicht die Zukunft für KI, die sich jeder von uns wünscht“, sagt Altman.

Sein Unternehmen forderte Latitude auf, Gegenmaßnahmen zu ergreifen. Das KI-Start-up reagierte Ende April mit einem neuen Filtersystem, das GPT-3 davon abhalten soll, „sexuelle Inhalte mit Minderjährigen“ zu generieren, heißt es im Blog des Start-ups.

Das System wankt

Allerdings stolpert Latitude nach der Ausrollung des Filters direkt in das nächste Problem: Die Beschränkungen sind zu weitläufig und verhindern die Generierung entsprechender Inhalte nicht immer, wie Spieler berichten.

Einige Spieler, die in AI Dungeon bewusst legale sexuelle Fantasien ausleben oder auf andere Art intime Informationen teilen, fühlen sich ausspioniert, da Latitude mit den neuen Maßnahmen auch private, unveröffentlichte Geschichten mitliest.

Außerdem berichten sie, dass angeblich überempfindliche Zensursystem schränke die Abenteuer ein. Einfach gesagt: Die KI-Software funktioniert nicht mehr so gut wie zuvor.

Die Beschwerden in den Kanälen des Unternehmens bei Reddit und Discord häufen sich. Einige Spieler bemühen sich bereits um ein unzensiertes Alternativprojekt mit der Open Source Text-KI GPT-neo, die technisch allerdings noch nicht mit GPT-3 mithalten kann.

Das zeigt die Komplexität der Aufgabe, mit der sich Latitude konfrontiert sieht: Die Textgenerierung von GPT-3 so auszusteuern, dass aus all den unendlich vielen theoretisch möglichen Sätzen nur noch jene generiert werden, die moralisch vertretbar sind, die keine Vorurteile enthalten und keine Gesetze brechen, ohne dabei das Potenzial der KI an sich zu stark einzuschränken, könnte zu einer Sisyphusaufgabe werden.

Dieses Problem wird nicht nur Latitude betreffen: Lösbar ist es womöglich nur, indem Text-KI ein tieferes Verständnis für die Dinge und einen moralischen Kompass entwickelt, statt einfach nur Wörter zu kombinieren.

Titelbild: AI Dungeon

Weiterlesen über AI Dungeon:

steady2

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.