Künstliche Intelligenz: Amazon kündigt KI-Chip "Inferentia" an

Künstliche Intelligenz: Amazon kündigt KI-Chip

Amazon kündigt eine verbesserte Infrastruktur für Künstliche Intelligenz an inklusive eigener KI-Chips. Die sollen KI-Training in der Cloud schnell und günstig machen.

Anzeige
Anzeige

Amazon Web Services stellt die neuen KI-Chips als Teil eines großen Updates seiner KI-Services vor. Der „Inferentia“ getaufte Prozessor soll ab 2019 über Amazons Cloud verfügbar sein und eine Leistung von „Hunderten Teraflops“ bieten. Zum Vergleich: Googles TPUv2-Chip von 2017 bietet eine Leistung von 180 Teraflops.

KI-Training in der Cloud

Amazon ist mit seinen spezialisierten Deep-Learning-Prozessoren nicht allein: Neben Nvidia und Intel entwickeln Google, Microsoft, Alibaba und Tesla jeweils eigene KI-Chips. Googles Softwareingenieur Cliff Young sagte kürzlich, Künstliche Intelligenz erreiche eine exponentielle Phase, in der „gigantische Rechenmaschinen“ benötigt würden.