Googles neue KI übersetzt 100 Sprachen, stellt selbst OpenAIs GPT-3 in den Schatten – und liefert eine Blaupause zu noch größeren Netzwerken.

Ende 2019 stellten Google-Forscher eine Übersetzungs-KI vor, die statt der sonst üblichen zwei gleich 100 Sprachen ins Englische übersetzen konnte – zumindest in Ansätzen. Das langfristige Ziel: eine universale Übersetzungs-KI.

In einem ersten Testlauf trainierten die Forscher damals ein riesiges neuronales Netzwerk mit 25 Milliarden Satzpaaren aus über 100 Sprachen. Das knapp 50 Milliarden Parameter große Netzwerk war die bis dato größte Text-KI und sollte ihre Fähigkeit generalisieren, Sprachen zu übersetzen.

Die Idee: Viele Sprachen teilen sich Übersetzungsregeln und eine Künstliche Intelligenz, die nicht mit zwei, sondern 100 Sprachen trainiert wird, hat gute Chancen, diese zu lernen. Tatsächlich stieg die Übersetzungsleistung mit dem größten Netzwerk sowohl für häufige als auch seltene Sprachen signifikant.

Google baut die bisher größte Text-KI

Googles „M4“-Ansatz (Massively Multilingual, Massive Neural Machine Translation) scheint also zu funktionieren. Doch kann die Übersetzungsleistung mit einem noch größeren Netzwerk gesteigert werden? Und wie kann ein so großes Netzwerk überhaupt konstruiert werden? Dies…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.