Uncategorized

Künstliche Intelligenz: Amazon kündigt KI-Chip "Inferentia" an

Maximilian Schreiner
Künstliche Intelligenz kann nur so objektiv urteilen, wie sie es aus ihren Daten lernt. Das kann ganz schön schiefgehen, zeigt ein neuer Fall bei Amazon: Eine KI-gestützte Auswahlsoftware für Bewerber soll Vorurteile gegenüber Frauen entwickelt haben.

Amazon kündigt eine verbesserte Infrastruktur für Künstliche Intelligenz an inklusive eigener KI-Chips. Die sollen KI-Training in der Cloud schnell und günstig machen.

Amazon Web Services stellt die neuen KI-Chips als Teil eines großen Updates seiner KI-Services vor. Der „Inferentia“ getaufte Prozessor soll ab 2019 über Amazons Cloud verfügbar sein und eine Leistung von „Hunderten Teraflops“ bieten. Zum Vergleich: Googles TPUv2-Chip von 2017 bietet eine Leistung von 180 Teraflops.

KI-Training in der Cloud

Amazon ist mit seinen spezialisierten Deep-Learning-Prozessoren nicht allein: Neben Nvidia und Intel entwickeln Google, Microsoft, Alibaba und Tesla jeweils eigene KI-Chips. Googles Softwareingenieur Cliff Young sagte kürzlich, Künstliche Intelligenz erreiche eine exponentielle Phase, in der „gigantische Rechenmaschinen“ benötigt würden.

PREMIUM-INHALT

Dieser Inhalt ist für unsere Abonnenten sichtbar.