
Menschen bringen OpenAIs Text-KI GPT-2 bei, bessere Texte zu erstellen.
Der KI-Forscher Yann LeCun hat einmal gesagt: “Wenn Intelligenz ein Kuchen ist, ist der Großteil des Kuchens unüberwachtes Lernen, das Sahnehäubchen ist überwachtes Lernen und die Kirsche ist bestärkendes Lernen.”
OpenAIs Text-KI GPT-2 schickt sich an, das beste Beispiel für LeCuns Metapher zu werden. Ich erkläre euch, weshalb.
Das KI-Unternehmen stellte die Text-KI GPT-2 im Februar vor und veröffentlichte im August die bis dato größte und leistungsstärkste Version. GPT-2 wurde unüberwacht mit 40 Gigabyte Internet-Text der Online-Plattform Reddit trainiert. Unüberwacht bedeutet, dass die KI anhand der Textbasis eigenständig ein Sprachmodell – Rechtschreibung, Satzbau etc. – entwickelte. Auf Basis dieses Modells kann die KI dann neue Texte generieren.
Nach dem Training gelang GPT-2 die Textgenerierung so gut, dass OpenAI sich entschloss, die leistungsstärkste Version der KI bis heute zurückzuhalten.…