OpenAI tastet sich nach und nach an eine vollständige Veröffentlichung der angeblich mächtigsten Text-KI GPT-2 vor.

Im vergangenen Februar stellte das KI-Unternehmen OpenAI die Text-KI GPT-2 vor. Sie ist Teil einer neuen Generation Text-KI, die unüberwacht trainiert wird, also eigenhändig ein Sprachmodell entwickelt anhand einer großen Textmenge. Auf Basis dieses Modells kann die KI dann Fragen beantworten oder Texte neu generieren.

Trainiert wurde GPT-2 mit 40 Gigabyte Internet-Text der Online-Plattform Reddit. Der Datensatz soll divers sein und 15 Mal umfangreicher als vergleichbare Datensätze. Der Umfang des Sprachmodells soll ähnliche Programme laut OpenAI um den Faktor zwölf übertreffen.

Speziell die Generierung von Fake News gelingt GPT-2 laut OpenAI so gut, dass es gefährlich sei, die Text-KI als Open Source zu veröffentlichen. Ansonsten könne das Internet sehr leicht mit glaubhaft geschriebenen Fake-Texten überschwemmt werden.

Neuer GPT-2-Release bietet 50 Prozent der vollen Leistung

Daher entschied sich OpenAI für eine schrittweise Veröffentlichung. Während die mächtigste GPT-2-Version 1558 Millionen Parameter verwendet, boten die ersten beiden öffentlich verfügbaren Versionen nur 124 Millionen und 355 Millionen Parameter.

Das jetzt veröffentlichte Modell bietet mit 774 Parametern etwa die Hälfte der Leistung der kompletten Text-KI. Gemeinsam mit Forschungspartnern will OpenAI untersuchen und beobachten, für welche Zwecke GPT-2 774 eingesetzt wird. Außerdem sollen die Texte selbst geprüft werden, beispielsweise auf Vorurteile.

Der aktuelle Plan sei es, die vollwertige Version mit 1558 Millionen Parametern in ei…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: So steht es um VR-Gaming | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.