KI-Anwendungen brauchen häufig viel Rechenleistung und Energie. Dank eines neuen Fertigungsverfahrens lässt sich eine alte Idee endlich umsetzen – und verspricht große Fortschritte bei der KI-Entwicklung.

Als Deepminds KI AlphaGo den weltbesten Go-Spieler Lee Sedol schlug, traten 1.920 Prozessoren und 280 Grafikkarten gegen ein menschliches Gehirn an. Wie viel Energie AlphaGo im Spiel genau verbrauchte, ist nicht bekannt. Schätzungen gehen auf Grund der Hardware von bis zu einem Megawatt aus. Sedols Gehirn begnügte sich mit etwa 20 Watt.

Der Vergleich zeigt, wie energiehungrig KI-Systeme sind – besonders, wenn sie auf Standard-Hardware laufen. Mit dem KI-Boom der letzten Jahre hat sich der Bedarf an KI-optimierter Hardware drastisch erhöht. Das Ergebnis sind für KI-Berechnungen optimierte Grafikkarten wie Nvidias Ampere A100 oder KI-Chips wie Googles TPU, die dank integrierter Matrix Multiply Unit viele parallele Operationen gleichzeitig ausführen kann.

Während Googles KI-Chip als eine Art GPU-Abkömmling verstanden werden kann, erkunden Forscher seit Jahrzehnten einen alternativen Weg zu energieeffizienten und leistungsstarken Rechensystemen: Sogenannte neuromorphische Computer, die sich an der Architektur des Gehirns orientieren, sollen in vielen Aufgaben die altbewährte von-Neumann-Architektur ablösen.

Mittlerweile gibt es entsprechende Hardware, etwa das schon 20 Jahre dauernde


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.