Menschen bringen OpenAIs Text-KI GPT-2 bei, bessere Texte zu erstellen.

Kabetec VR-Brille

Der KI-Forscher Yann LeCun hat einmal gesagt: “Wenn Intelligenz ein Kuchen ist, ist der Großteil des Kuchens unüberwachtes Lernen, das Sahnehäubchen ist überwachtes Lernen und die Kirsche ist bestärkendes Lernen.”

OpenAIs Text-KI GPT-2 schickt sich an, das beste Beispiel für LeCuns Metapher zu werden. Ich erkläre euch, weshalb.

Das KI-Unternehmen stellte die Text-KI GPT-2 im Februar vor und veröffentlichte im August die bis dato größte und leistungsstärkste Version. GPT-2 wurde unüberwacht mit 40 Gigabyte Internet-Text der Online-Plattform Reddit trainiert. Unüberwacht bedeutet, dass die KI anhand der Textbasis eigenständig ein Sprachmodell – Rechtschreibung, Satzbau etc. –  entwickelte. Auf Basis dieses Modells kann die KI dann neue Texte generieren.

Nach dem Training gelang GPT-2 die Textgenerierung so gut, dass OpenAI sich entschloss, die leistungsstärkste Version der KI bis heute zurückzuhalten. Das Unternehmen befürchtet eine Überflutung des Internets mit Fake-News und anderen KI-generierten Texten.

Mit menschlichem Feedback zu besserer Performance

Doch GPT-2 und



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.