Deepminds Alphastar-KI hat sich unter menschlichen Bedigungen die Starcraft-II-Liga hochgespielt und den höchstmöglichen Spielerrang erreicht. Sie ist nun besser als 99,8 Prozent aller aktiven Spieler.

Anfang des Jahres meldete Deepmind einen KI-Durchbruch: Eine “Alphastar” getaufte Künstliche Intelligenz schlug professionelle Starcraft-2-Spieler in zehn von elf Partien. Die KI trainierte zuvor gegen Menschen und sich selbst in einer Simulation.

Kritiker warfen damals ein, dass Alphastar eher dank übermenschlich schnellem Klickvermögen statt strategischer Planung gewann. Deepmind verbesserte die KI indes weiter und ließ Alphastar auf der offiziellen Wettkampfplattform Battle.net gegen Starcraft-II-Spieler antreten.

Der Unterschied zur Deepmind-KI von Anfang 2019 ist, dass die neue Alphastar beim Spielen ähnliche Einschränkungen hat wie menschliche Spieler: Sie sieht die Spielkarte durch eine Kamera und ist bei der Anzahl maximaler Klicks eingeschränkt. Sie darf in fünf Sekunden maximal 22 Aktionen durchführen, was ungefähr dem Niveau eines Profispielers entspricht.

Alphastar spielte außerdem zum ersten Mal alle drei Rassen. Für jede der drei Rassen trainierte Deepmind ein eigenes künstliches neuronales Netzwerk.

Alphastar lehrt Menschen neue Strategien

Die Anpassung der KI an menschliche Restriktionen sollte das Argument entkräften, dass Alphastar sich auf artifizielle Fähigkeiten statt eigene Strategien verlasse.

“AlphaStar ist ein faszinierender und unorthodoxer Spieler. Sie besitzt die Reflexe und Geschwindigkeit der besten Spieler, aber ganz eigene Strategien und Spielstile. […] Man fragt sich, wie viel der zahlreichen Spielmöglichkeiten von Starcraft II professionelle Spieler wirklich erforscht haben”, sagt der Profispieler Diego “Kelazhur” Schwimer.

Deepmind sieht den jüngsten Durchbruch als ein weiteres Argument für bestärkendes Lernen. Mit der gleichen KI-Lernmethode will Deepmind auch Roboter und autonome Fahrzeuge trainieren.

Einer der Stärken dieses Ansatzes ist, dass künstliche neuronale Netzwerke gefahrenfrei und beschleunigt in simulierten Übungen lernen können. Die Methode ist jedoch nicht immer effizient: Die Five-KI von OpenAI musste das ebenfalls sehr komplexe Onlinekampfspiel Dota 2 ganze 45.000 Menschenjahre üben, um menschliche Profiteams zu schlagen – erreichte so aber ebenfalls fast den Status der Unbezwingbarkeit.

KI-Experten wie Gary Marcus zweifeln außerdem daran, dass eine KI das durch bestärkendes Lernen antrainierte Spezialwissen auf andere Anwendungsszenarien übertragen kann und damit dem großen Ziel der KI-Forschung näherkommt. Marcus hält die Methode daher für eine Sackgasse.

Wer mehr über die Technik hinter Alphastar erfahren will, schaut in den Deepmind-Artikel oder direkt in die Publikation in der Fachzeitschrift Nature.

Weiterlesen über Bestärkendes KI-Lernen:


MIXEDCAST #167: Varjo VR-2 Ersteindruck, Hololens 2teindruck und AR-Brillen-Schwemme | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.