OpenAIs Text-KI GPT-3 erstaunt, weil sie Dinge kann, die nicht erwartet wurden. Manch einer wähnt GPT-3 schon vorschnell als Schritt zu generellen KI. Doch OpenAI-Mitgründer Sam Altman drückt auf die Hype-Bremse.

Als Chef von OpenAI LP ist Altman verantwortlich für die kommerzielle Verwertung von OpenAIs Non-Profit-Forschung. In seiner Rolle begleitete er auch den Launch von OpenAIs erstem kommerziellen Produkt, das im Mai auf den Markt kam: Die Online-Schnittstelle zur mit massiven Mengen Internet-Text trainierten Text-KI GPT-3.

In den letzten Tagen zeigten Entwickler ihre GPT-3-Experimente, die zum einen deutlich über dem Niveau der Textausgabe des kostenlosen Vorgängermodells GPT-2 liegen. Zum anderen teilten sie mitunter erstaunliche Beobachtungen, beispielsweise, dass GPT-3 auf Zuruf Code generieren kann.

Die KI lernte auch, einfache Matheaufgaben zu lösen, obwohl sie dafür nicht explizit trainiert wurde – das Wissen war irgendwo im Internettext verborgen.

Solche Nebeneffekte machen GPT-3 spannend und lassen die KI wie eine große Entdeckung wirken. Wer weiß, was sich in den Tiefen des neuronalen Netzes sonst noch an unbekannten Fähigkeiten verbirgt?

Altman glaubt an die Super-KI – aber GPT-3 ist weit davon entfernt

Als der Multimillionär und Startup-Investor Sam Altman gemeinsam mit Elon Musk OpenAI auf den Weg brachte, tat er das – wie Musk – aus einer grundlegenden Überzeugung heraus: dass die künstliche die menschliche Intelligenz abhängen und so überflüssig machen könnte.

Damit es keinen Krieg gibt zwischen Menschen und Maschinen, müsse sich die Menschheit upgraden oder wenigstens die Super-KI kontrollieren und für das Gute einsetzen. Genau diesen Part soll Open AI übernehmen: Die Organisation arbeitet an vielen kleinen KI-Projekten, die nach und nach zu einem großen KI-Geflecht zusammengeführt werden sollen – zum Wohle der Menschheit.

Anstatt jedoch den Hype rund um GPT-3 noch zu verstärken, tritt Altman bei Twitter lieber auf die Bremse: “Der Hype um GPT-3 ist völlig übertrieben”, schreibt Altman.

Die KI-Software sei zwar beeindruckend, habe aber noch immer signifikante Schwächen und mache absurde Fehler. “KI wird die Welt ändern, aber GPT-3 ist nur ein sehr früher Ausblick. Wir müssen noch viel herausfinden.”

Kreativität sorgt für Resonanz

Altman hat eine Theorie, weshalb GPT-3 auf so große Resonanz stößt: Weil sie auf Englisch funktioniert, also für viele Menschen zugänglich ist, und weil sie Kreativität belohnt. “Für Nicht-Programmierer ist das so, als würden sie das erste Mal die Magie des Programmierens erleben.”

Persönlich hofft Altman auf einen KI-Durchbruch, der mit Zahlen zu tun hat: “Für mich wird es ein großer Moment sein, wenn eine KI eine neue mathematische Theorie beweisen kann.” Diesen Erfolg hängt Altman noch höher als das mögliche Bestehen des bekannten Turing-Tests.

Wie GPT-3 funktioniert und wo die Grenzen des Systems liegen, ist Thema in unserem MIXED.de Podcast #205.

Weiterlesen über KI:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Exit VR | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.