Künstliche Intelligenz: Amazon kündigt KI-Chip "Inferentia" an

Künstliche Intelligenz: Amazon kündigt KI-Chip

Amazon kündigt eine verbesserte Infrastruktur für Künstliche Intelligenz an inklusive eigener KI-Chips. Die sollen KI-Training in der Cloud schnell und günstig machen.

Amazon Web Services stellt die neuen KI-Chips als Teil eines großen Updates seiner KI-Services vor. Der „Inferentia“ getaufte Prozessor soll ab 2019 über Amazons Cloud verfügbar sein und eine Leistung von „Hunderten Teraflops“ bieten. Zum Vergleich: Googles TPUv2-Chip von 2017 bietet eine Leistung von 180 Teraflops.

KI-Training in der Cloud

Amazon ist mit seinen spezialisierten Deep-Learning-Prozessoren nicht allein: Neben Nvidia und Intel entwickeln Google, Microsoft, Alibaba und Tesla jeweils eigene KI-Chips. Googles Softwareingenieur Cliff Young sagte kürzlich, Künstliche Intelligenz erreiche eine exponentielle Phase, in der „gigantische Rechenmaschinen“ benötigt würden.

___STEADY_PAYWALL___

Die Spezialchips in der Cloud sollen gezielt das Deep Learning beschleunigen, indem sie im Vergleich zu traditionellen Computer-Farmen mit herkömmlichen Prozessoren mehr Leistung bei geringerem Energieverbrauch und günstigeren Preisen bieten. Insbesondere Microsoft und Google konkurrieren mit Amazon auf dem Cloud-Computing-Markt für buchbare KI-Services.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Amazon SageMaker mit neuen Funktionen

Amazon kündigt ebenfalls neue Features für Amazon SageMaker an. SageMaker ist eine Plattform, über die Entwickler vorkonfigurierte maschinelle Lernmodelle in Amazons Cloud trainieren können. Neu ist unter anderem ein Modell, mit dem Text aus jedem Dokument extrahiert werden kann. Außerdem gibt es jetzt Zugriff auf Amazons eigenen Empfehlungsalgorithmus.

Weiterlesen über Künstliche Intelligenz: