Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Amazon kündigt eine verbesserte Infrastruktur für Künstliche Intelligenz an inklusive eigener KI-Chips. Die sollen KI-Training in der Cloud schnell und günstig machen.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Amazon Web Services stellt die neuen KI-Chips als Teil eines großen Updates seiner KI-Services vor. Der „Inferentia“ getaufte Prozessor soll ab 2019 über Amazons Cloud verfügbar sein und eine Leistung von „Hunderten Teraflops“ bieten. Zum Vergleich: Googles TPUv2-Chip von 2017 bietet eine Leistung von 180 Teraflops.
KI-Training in der Cloud
Amazon ist mit seinen spezialisierten Deep-Learning-Prozessoren nicht allein: Neben Nvidia und Intel entwickeln Google, Microsoft, Alibaba und Tesla jeweils eigene KI-Chips. Googles Softwareingenieur Cliff Young sagte kürzlich, Künstliche Intelligenz erreiche eine exponentielle Phase, in der „gigantische Rechenmaschinen“ benötigt würden.
___STEADY_PAYWALL___
Die Spezialchips in der Cloud sollen gezielt das Deep Learning beschleunigen, indem sie im Vergleich zu traditionellen Computer-Farmen mit herkömmlichen Prozessoren mehr Leistung bei geringerem Energieverbrauch und günstigeren Preisen bieten. Insbesondere Microsoft und Google konkurrieren mit Amazon auf dem Cloud-Computing-Markt für buchbare KI-Services.
Amazon kündigt ebenfalls neue Features für Amazon SageMaker an. SageMaker ist eine Plattform, über die Entwickler vorkonfigurierte maschinelle Lernmodelle in Amazons Cloud trainieren können. Neu ist unter anderem ein Modell, mit dem Text aus jedem Dokument extrahiert werden kann. Außerdem gibt es jetzt Zugriff auf Amazons eigenen Empfehlungsalgorithmus.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.