Inhalt
newsletter Newsletter
DEEP MINDS Podcast
Podcast über Künstliche Intelligenz und Wissenschaft
KI bei der Bundeswehr und der BWI | DEEP MINDS #16

Graphcores IPU-POD16 schlägt in einem wichtigen KI-Benchmark das erste Mal Nvidia. Bekommt der Platzhirsch ernsthafte Konkurrenz?

Auf dem Markt für KI-Hardware sind alternative Anbieter zu Nvidias KI-Angebot noch immer die Ausnahme. Unternehmen wie Cerebras oder Graphcore wollen das ändern und fordern Nvidia heraus: Cerebras riesiger KI-Chip hat 2,6 Billionen Transistoren und soll KI-Netze auf Gehirnniveau erlauben. Graphcores IPU-POD-Systeme setzen auf den MK2 GC200-Chip mit knapp 60 Milliarden Transistoren.

Das 2016 gegründete britische Unternehmen wird auf einen Unternehmenswert von knapp 2,8 Milliarden US-Dollar geschätzt und plant nach einer möglichen weiteren Finanzierungsrunde einen Börsengang ab dem kommenden Jahr. Den direkten Konkurrenten Nvidia forderte Graphcore bereits Ende 2020 heraus, als das Unternehmen verkündete, die eigene KI-Lösung IPU-POD16 biete mehr Leistung pro US-Dollar als Nvidias DGX A100 640 Gigabyte Server.

Graphcores Benchmarks zeigen Fortschritte

Diese Behauptung wurde von Nvidia und auch unabhängigen Experten kritisiert. Laut des Fachmagazins ServeTheHome entsprachen  die von Graphcore angegebenen Preise für Nvidias DGX A100 nicht den tatsächlich gezahlten Preisen im Markt.

Anzeige
Anzeige

Der Preisvergleich sei außerdem für Graphcore notwendig, da die eigenen Produkte nicht mit der Trainings- und Inferenzgeschwindigkeit von Nvidias Alternative im MLPerf-Benchmark mithalten konnten. Der KI-Benchmark wird vom Konsortium MLCommons betrieben und soll die Leistung verschiedener Chip-Architekturen unabhängig von Herstellermessungen transparent machen.

In der jüngsten Einreichung in den MLPerf-Benchmark zeigt Graphcores Produkt nun jedoch Fortschritte und schlägt in zumindest einer Kategorie Nvidias Produkt. Ermöglicht wurde dieser Erfolg laut Graphcore durch Softwareoptimierungen.

Sind knapp 60 Sekunden Vorteil ein großer Schritt?

Laut Graphcore benötigt das IPU-POD16 mit 16 Mk2 GC200-Chips 28,3 Minuten, um das Bildanalyse-Netz ResNet-50 zu trainieren. Nvidias DGX A100 benötige 29,1 Minuten. Im Vergleich zum letzten Test entspreche das einer Verbesserung von 24 Prozent. Graphcores Lösung hat also knapp 60 Sekunden Vorsprung.

Graphcore hat knapp 60 Sekunden Vorsprung vor Nvidias System. Das ist eine deutliche Verbesserung gegenüber dem ersten Versuch im Sommer. | Bild: Graphcore

Das ist nicht viel, doch für ein Unternehmen, das mit Nvidia konkurrieren will, ein wichtiger Erfolg. Die Leistungsgewinne durch die neuen Softwareoptimierungen sind laut Graphcore in den größeren IPU-POD64-Systemen noch höher. Ganze 41 Prozent schneller läuft das System als noch vor einem halben Jahr. Die noch größeren Systeme IPU-POD128 und IPU-POD256 trainieren ResNet-50 in 5,67 bzw. 3,79 Minuten.

Auch beim KI-Training des Sprachmodells BERT spielt Graphcore oben mit, bleibt allerdings hinter Nvidia zurück. Hier liegen die Leistungsgewinne im Vergleich zum Sommer bei fünf bis zwölf Prozent.

Empfehlung

Graphcore etabliert sich als Alternative

Die KI-Hardware des britischen Unternehmens bietet außerdem gute Performance beim Training von neueren KI-Modellen wie EfficientNet-B4, GPT-Modellen oder Vision-Transformern. Diese Modelle sind nicht Teil der geschlossenen Klasse von MLPerf, können aber in der offenen Klasse verglichen werden.

Laut Graphcore zeigt die eigene Hard- und Software hier teils deutliche Verbesserungen: Ein IPU-POD16 trainiere EfficientNet-B4 in 20,7 Stunden, ein DGX A100-System benötige 70,5 Stunden.

Graphcores größere Systeme skalieren nach den bisherigen Benchmarks effizient. | Bild: Graphcore

Graphcore plant weitere Softwareoptimierungen und Updates für Kunden. Im Laufe des Jahres 2021 haben sich Hardware- und Softwarepartner wie Hugging Face, PyTorch Lightning, VMWare und Docker Hub Graphcore angeschlossen. In Großbritannien scheint langsam ein echter Konkurrent für Nvidias KI-Geschäfte zu entstehen. Dort ist auch Nvidias geplanter Kauf von ARM stark umstritten.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!

Weiterlesen über KI-Chips:

Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Quellen
Max ist leitender Redakteur bei THE DECODER. Als studierter Philosoph beschäftigt er sich mit dem Bewusstsein, KI und der Frage, ob Maschinen wirklich denken können oder nur so tun als ob.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!