
Künstliche Intelligenz kann bei ihren Entscheidungen ebenso wie der Mensch von Vorurteilen beeinflusst werden. Dabei wirkt sie vermeintlich objektiv. KI-Kritiker sehen darin in ein Risiko.
Eine Maschine lernt, was der Mensch ihr aufträgt. Ihre Lerngrundlage sind unsere Daten. Stecken in diesen Daten Vorurteile, dann übernimmt die Maschine sie.
Ein typisches Beispiel ist die Stichprobenverzerrung. Wenn in einer Bilddatenbank zum Suchwort Ärzte mehr Bilder von Männern als von Frauen angezeigt werden, könnte eine KI annehmen, dass Ärzte typischerweise männlich sind – und diese Information in ihre komplexe Entscheidungsfindung integrieren.
Ein weiteres Beispiel: Facebooks Algorithmus zur Nachrichtenauswahl schließt anhand des Nutzerverhaltens auf Informationsbedürfnisse und bedient sie einseitig. So schließt der Algorithmus den Nutzer in einer Informationsblase ein, der sich dessen womöglich gar nicht bewusst ist.
Wenn Künstliche Intelligenz immer mehr Alltagsaufgaben übernimmt, dann könnten solche Vorurteile im großen Stil automatisiert werden.
“Wenn man nicht weiß, mit welchen Daten der Algorithmus trainiert wurde, dann sollte man ihm nicht trauen”, urteilte kürzlich John Giannandrea, der bis vor kurze…