GPT-3: Lassen sich Menschen von KI-Fake-News beeinflussen?

GPT-3: Lassen sich Menschen von KI-Fake-News beeinflussen?

Forscher der Universität Georgetown untersuchten, wie effektiv GPT-3 bei der Verbreitung von Fake-News unterstützen kann.

Als die KI-Organisation OpenAI erstmals die Sprach-KI GPT-2 öffentlich vorstellte, veröffentlichte sie anschließend nicht wie üblich den Quellcode als Open Source. Die Begründung: Die Technologie sei zu gefährlich, da böse Geister mit ihr leicht das Internet mit Fake-News fluten könnten. Auch die neueste Version GPT-3 darf nur von ausgewählten Partnern und gegen Bezahlung verwendet werden – unter anderem wegen des Fake-News-Risikos.

Nun haben Forscher des Center for Security and Emerging Technology der Universität Georgetown das Fake-News-Potenzial von GPT-3 auf die Probe gestellt. Für ihre Studie „Truth, Lies, and Automation: How Language Models Could Change Disinformation“ ließen sie die KI drei Arten von Text schreiben: vollständige Artikel, einzelne Paragrafen und kurze Stellungnahmen für Social-Media-Plattformen wie Twitter.

___STEADY_PAYWALL___

Versuchspersonen lassen ihre politische Sichtweise von KI-generierten Statements beeinflussen

Die KI eignet sich laut der Forscher insbesondere für kurze, pointierte Aussagen, wie sie beispielsweise bei Twitter üblich sind. Ein GPT-Tweet etwa beschrieb den Klimawandel als „den neuen Kommunismus – eine auf falscher Wissenschaft basierte Ideologie, die nicht hinterfragt werden darf.“

KI-generierte Tweets zum Thema Klimawandel. | Bild: Universität Georgetown

KI-generierte Tweets zum Thema Klimawandel. | Bild: Universität Georgetown

In ihrem wirkungsvollsten Experiment zeigten die Forscher Versuchspersonen GPT-3 generierte politische Aussagen über US-Sanktionen gegen China. Nach der Lektüre fünf kritischer KI-Statements über die Sanktionen verdoppelte sich beinahe (22 % auf 40 %) die Anzahl der Versuchspersonen, die gegen diese Art von Politik sind.

Laut dem an der Studie beteiligten Wissenschaftler Ben Buchanan ist GPT-3 daher „mit ein wenig menschlicher Kuration ziemlich effektiv“ darin, falsche Nachrichten zu verbreiten.

„Nur fünf kurze Botschaften von GPT-3 konnten eine Pro-Sanktions-Mehrheit in eine Anti-Sanktions-Meinung verwandeln und verdoppelten den Prozentsatz der Menschen, die dagegen waren“, heißt es in der Studie.

Die Forscher generierten unterschiedliche Statements für verschiedene politische Interessensgruppen. | Bild: Universität Georgetown

Die Forscher generierten unterschiedliche Aussagen für verschiedene politische Interessengruppen. | Bild: Universität Georgetown

Im Falle der Georgetown-Studie sahen die Versuchspersonen nur die Aussagen, ohne Verweis auf ihre maschinelle Herkunft. Ein kürzlich vorgestelltes Experiment zeigte, dass Menschen sich sogar dann auf maschinelle Ratschläge einlassen, wenn sie wissen, dass sie von einer KI kommen.

GPT-3: Forscher befürchten Fake-News A/B-Testmaschine

Dass Menschen sich von maschinell und menschlich geschriebenen Statements gleichermaßen beeinflussen lassen können, ist nicht die wichtigste Botschaft der Studie, auch wenn sie für diese These den wissenschaftlichen Beweis anführt.

Das Risiko liegt, wie so oft bei KI, nicht in der einzelnen Funktion als solche, sondern in ihrer Skalierung. Das stellen auch die Forscher in ihrer Arbeit klar: Organisationen, die Desinformationskampagnen organisieren, könnten in Mensch-Maschine-Teams effizienter arbeiten, heißt es in der Studie.

„Durch die Generierung vieler Varianten in einem Umfang, der über das hinausgeht, was der Mensch allein leisten kann, werden die Anwender ein breiteres Spektrum an Möglichkeiten abdecken.“ Dieses Vorgehen erlaube beispielsweise, schneller mehr unterschiedliche Nachrichten zu generieren, um dann zu testen, welche besonders gut verfangen.

Ihre Studie, schreiben die Forscher, deute auf eine „vorläufige, aber alarmierende Schlussfolgerung“ hin: Sprach-KIs wie GPT-3 seien womöglich besser für subtile Desinformation geeignet als für die Information.

OpenAI kann nur die eigene KI kontrollieren

Gegenüber Wired kommentiert OpenAI die Ergebnisse der Georgetown-Forscher: Man arbeite aktiv an Sicherheitsthemen bei GPT-3 und untersuche vorab jeden Produktiveinsatz. Außerdem sei ein „Überwachungssysteme eingerichtet, um den Missbrauch unserer API einzuschränken und darauf zu reagieren.“

Das ist zwar eine Antwort darauf, wie OpenAI den Missbrauch von GPT-3 effektiv einschränken kann. Aber es ist keine generelle Antwort auf die Frage, wie eine Gesellschaft mit mächtigen Sprach-KIs wie GPT-3 insgesamt umgehen sollte. Denn neben OpenAI werden andere Anbieter mit weniger oder sogar keinen Restriktionen entsprechende KI-Systeme verbreiten – und die Technologie steht höchstwahrscheinlich am Anfang einer steilen Entwicklungskurve.

Über das Dilemma mächtiger Sprach-KI sprechen wir im aktuellen MIXED.de Podcast Folge #246 am Beispiel von AI Dungeon.

Quellen: Universität Georgetown, Wired; Titelbild: Universität Georgetown (Screenshot Titelblatt)

Weiterlesen über Künstliche Intelligenz: