Künstliche Intelligenz kann nur so objektiv urteilen, wie sie es aus ihren Daten lernt. Das kann ganz schön schiefgehen, zeigt ein neuer Fall bei Amazon: Eine KI-gestützte Auswahlsoftware für Bewerber soll Vorurteile gegenüber Frauen entwickelt haben.

Den perfekten Kandidaten für einen Job zu finden, ist für Unternehmen ein ungeheurer Aufwand. Aufwand bedeutet Kosten. Und die sollen für gewöhnlich möglichst geringgehalten werden.

Wie praktisch wäre es also, wenn eine Künstliche Intelligenz automatisch aus Hunderten oder gar Tausenden möglicher Kandidaten den Hauptpreis zieht? Sehr praktisch. Und günstig.

Kein Wunder also, dass gerade große Konzerne wie Amazon, die einen hohen Durchlauf an Mitarbeitern haben und permanent wachsen, in KI-Software für die automatisierte Personalauswahl investieren.

Bewertung nach dem Fünf-Sterne-Prinzip

Jetzt berichtet Reuters, dass Amazons seit Anfang 2017 eingestellte KI-Software für die Mitarbeitersuche ein bedeutendes Defizit hatte: Sie hatte Vorurteile gegenüber Frauen.

Entwickelt und eingesetzt wurde die Software seit 2014. Sie durchsuchte das Web nach geeigneten Kandidaten und bewertete sie auf einer Fünf-Sterne-Skala – so ähnlich wie Amazon-Produkte.

“Jeder wollte diesen heiligen Gral”, zitierter Reuters eine mit dem Projekt vertraute Quelle. “Es sollte eine Software sein, in die man 100 Bewerbun…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Radioaktive Daten und VR Auferstehung | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.