Amazon kündigt eine verbesserte Infrastruktur für Künstliche Intelligenz an inklusive eigener KI-Chips. Die sollen KI-Training in der Cloud schnell und günstig machen.

Amazon Web Services stellt die neuen KI-Chips als Teil eines großen Updates seiner KI-Services vor. Der „Inferentia“ getaufte Prozessor soll ab 2019 über Amazons Cloud verfügbar sein und eine Leistung von „Hunderten Teraflops“ bieten. Zum Vergleich: Googles TPUv2-Chip von 2017 bietet eine Leistung von 180 Teraflops.

KI-Training in der Cloud

Amazon ist mit seinen spezialisierten Deep-Learning-Prozessoren nicht allein: Neben Nvidia und Intel entwickeln Google, Microsoft, Alibaba und Tesla jeweils eigene KI-Chips. Googles Softwareingenieur Cliff Young sagte kürzlich, Künstliche Intelligenz erreiche eine exponentielle Phase, in der „gigantische Rechenmaschinen“ benötigt würden.

Die Spezialchips in der Cloud sollen gezielt das Deep Learning beschleunigen, indem sie im Vergleich zu traditionellen Computer-Farmen mit herkömmlichen Prozessoren mehr Leistung bei geringerem Energieverbrauch und günstigeren Preisen bieten. Insbesondere Microsoft und Google konkurrieren mit Amazon auf dem Cloud-Computing-Markt für buchbare KI-Services.

Amazon SageMaker mit neuen Funktionen

Amazon kündigt ebenfalls neue Features für Amazon SageMaker an. SageMaker ist eine Plattform, über die Entwickler vorkonfigurierte maschinelle Lernmodelle in Amazons Cloud trainieren können. Neu ist unter anderem ein Modell, mit dem Text aus jedem Dokument extrahiert werden kann. Außerdem gibt es jetzt Zugriff auf Amazons eigenen Empfehlungsalgorithmus.

Weiterlesen über Künstliche Intelligenz:


MIXED-Podcast #143: Google I/O und High Fidelity VR-Abschied | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.