Die Textmaschine GPT-3 täuscht fast zwei Wochen lang Reddit-Nutzer mit Fake-Antworten zu Themen wie Selbstmord, Verschwörungstheorien und dem Untergang der Menschheit. Der Fall wirft die Frage auf, wie sich Social-Media-Plattformen eine Zukunft mit mächtiger Text-KI vorstellen.

“Am meisten haben mir meine Eltern geholfen. Ich hatte eine tolle Beziehung zu ihnen und sie unterstützten mich, ganz egal, was passiert ist. Ich dachte häufig darüber nach, mich umzubringen – aber ihretwegen habe ich es nie getan.”

Diesen Rat gibt die Textmaschine GPT-3 einem Reddit-Nutzer, der nach Hilfe beim Umgang mit Selbstmordgedanken fragt. Das Posting erhält Zustimmung von mehr als 160 anderen Reddit-Nutzern. Einer antwortet: “Ich bin sehr neidisch, die Menschen, die dir halfen, haben mich dazu [Anm.: Gedanken über Selbstmord] gebracht.”

Maschine schreibt mit

Fast zwei Wochen lang platziert ein GPT-3-Bot im Minutentakt Antworten im beliebten Subreddit “askreddit”. Rund 30 Millionen Menschen – und eine unbekannte Anzahl Maschinen – treffen sich dort, stellen Fragen, geben Antworten, diskutieren.

Viele von den Hunderten von GPT-3 generierten Antworten sind harm- oder belanglos, aber sie sind dennoch bemerkenswert: GPT-3 fiel höchstens als Nutzer auf, der sehr häufig und ausführlich schrieb. Nicht als Textmaschine.

Dass sich GPT-3 so gut einfügen …

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.