Inhalt
newsletter Newsletter

Deepminds KI-Forschung kostet viel Geld. Ob und wann sie viel verdient, ist offen. Ein KI-Forscher fürchtet, dass die Investitionen in die falsche Technologie fließen.

Geht es nach der Anzahl Schlagzeilen, dann ist Googles KI-Schwester Deepmind Klassenbeste. Erfolge wie der KI-Sieg über einen menschlichen Champion beim komplexen Brettspiel Go wurden gar in einer eigenen Dokumentation festgehalten.

Zuletzt ging Alphastar durch die Medien, eine neue Deepmind-KI, die erstmals Profispieler im taktisch anspruchsvollen Computerspiel "Starcraft II" besiegen kann. Deepmind feierte diesen Sieg als "großen Durchbruch".

KI-Forschung ist teuer ...

Der Buchhalter indes hat an Deepmind wenig Freude: Allein im vergangenen Jahr verlor das Unternehmen 572 Millionen US-Dollar. Zwar stieg auch der Umsatz von rund 66 Millionen auf 124 Millionen US-Dollar - aber das Geld wird bei Deepmind noch viel schneller ausgegeben als eingenommen.

Anzeige
Anzeige

Allein die Personalkosten verdoppelten sich 2018 auf rund 480 Millionen US-Dollar. KI-Fachkräfte sind eben teuer. In diesem Jahr steht zusätzlich ein Schuldenausgleich über mehr als eine Milliarde US-Dollar an (via Bloomberg).

Gut, dass mit Googles Mutterkonzern Alphabet ein potenter Geldgeber hinter Deepmind steht. Um ihren Job fürchten müssen die KI-Forscher sicher nicht.

... und bringt was genau?

Was Deepmind indes noch abgeht, ist der Nachweis, dass aus all der Forschung ein großer Nutzen für die Menschheit entsteht.

In eben diese Wunde legt jetzt der KI-Forscher Gary Marcus einen Finger. Er lehrt als Professor für Psychologie und Neurowissenschaften an der New York Universität und ist Gründer des KI-Startups "Robust.AI" sowie Autor des Buches "Rebooting AI: Building Artificial Intelligence We Can Trust."

Er kritisiert bei Wired, dass Deepmind den Fokus auf die falsche Technologie legt: das sogenannte bestärkende Lernen (Reinforcement Learning). Eine KI lernt eine Aufgabe eigenständig, indem sie auf ein vorgegebenes Ziel hinarbeitet. Kommt sie dem Ziel näher, wird sie belohnt.

Empfehlung

Nach und nach entstehen so Handlungsprinzipien, die nicht an menschliches Vorwissen gebunden sind. Die KI kann mit dieser Methode zum Beispiel bei einem Brettspiel wie Go siegreiche Spielzüge entdecken, auf die noch nie ein Mensch gekommen ist.

Bestärkendes Lernen: Zu banal für die Realität?

"Das Problem ist, dass diese Technik sehr spezifisch ist für überschaubare Szenarien", schreibt Marcus. Entsprechend trainierte KI-Systeme könnten zwar enorme Erinnerungsleistungen abrufen und erzielten so eindrucksvolle Ergebnisse. Sie hätten aber kaum ein Verständnis für die eigentliche Sache.

Die Systeme seien daher nicht flexibel und könnten selbst kleine Veränderungen in den Rahmenbedingungen nicht ausgleichen, kritisiert Marcus. Hinzu käme der gigantische Datenverbrauch.

"Im Moment kann man Deep Reinforcement Learning nur in Umgebungen vertrauen, die gut kontrolliert sind bei wenigen Überraschungen; das funktioniert gut für Go - weder das Brett noch die Regeln haben sich in 2.000 Jahren geändert - aber man möchte sich nicht in vielen realen Situationen darauf verlassen", schreibt Marcus.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Könnte Deepmind scheitern?

Der KI-Forscher äußert grundlegende Zweifel, dass Deepminds Entwicklungen den Herausforderungen der realen Welt gewachsen sind wie die Erkennung von Krebs oder der Erzeugung sauberer Energie. Er geht davon aus, dass sich bestärkendes Lernen zwar als nützliches Werkzeug erweist, aber nicht die Welt verändern wird.

Allerdings sei Deepmind als Organisation stark. Selbst wenn sich die KI-Forschung in eine andere Richtung entwickle, könne sich das Unternehmen, ausgestattet mit reichlich Talent, wohl schnell anpassen.

Einen weiteren KI-Winter will Marcus dennoch nicht ausschließen, wenn der Hype um die Technologie ihren tatsächlichen Nutzen übersteige. Sogar Alphabet könne sich zum Rückzug gezwungen sehen, wenn sich die Verluste von Deepmind weiter verdoppelten, glaubt Marcus. Investoren verlören das Interesse, wenn es keine greifbaren finanziellen Resultate gebe.

Besser lernen wie ein Kind

Zwar habe es große KI-Fortschritte gegeben beispielsweise bei der Spracherkennung oder in der Werbung. Und selbst in der aktuell limitierten Fassung sei Künstliche Intelligenz nützlich. Aber "bislang war es einfacher, KI zu hypen, als sie zu entwickeln", schreibt Marcus. In zehn Jahren werde bestärkendes Lernen rückblickend als überbewertet eingeschätzt.

Anstatt zu Fragen, wie Maschinen Prozesse anhand großer Datenmengen optimieren könnten, sollten Forscher eher darüber nachdenken, wie es Kindern gelingt, Sprachen zu lernen und die Welt zu verstehen und das mit einem viel geringeren Energie- und Datenverbrauch als aktuelle KI-Systeme.

"Wenn wir mehr Zeit, Geld und Energie für die letztgenannte Frage aufwenden, könnten wir viel früher eine generelle Künstliche Intelligenz entwickeln", schreibt Marcus.

Quelle: Wired; Titelbild: Deepmind (Screenshot der Webseite)

Weiterlesen über Künstliche Intelligenz:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!