Wenn Computer informieren, dann ist die Information immer neutral und objektiv. Oder nicht? Ein Irrglaube, sagt Google, und erklärt, wie Computer Vorurteile entwickeln.

Die Künstliche Intelligenz lernt nicht eigenständig und losgelöst vom Menschen, sondern basierend auf dessen Vorgaben und Daten. Beim maschinellen Lernen suchen Computer Muster in tausenden von Menschen klassifizierten Datensätzen. Stecken in diesen Datensätzen Vorurteile, werden sie vom Computer übernommen.

Laut Google gibt es drei wesentliche Arten an Vorurteilen, die Maschinen von Menschen überliefert bekommen. Beim Interaktionsvorurteil wird der Algorithmus unmittelbar durch eine eingeschränkte menschliche Vorgabe in einem ansonsten komplexen Umfeld beeinflusst.

Fragt der Computer beispielsweise nach einem Schuh, zeigt der Nutzer ihm die Art von Schuh, die er selbst bevorzugt – womöglich einen Herrenschuh. Für den Computer ist in diesem Moment nicht offensichtlich, dass Damenschuhe oder ein Turnschuh ebenfalls Schuhe sind. Er bevorzugt daher zukünftig den Herrenschuh.

Laut Google ist das ein typisches Beispiel dafür, wie bei maschinellen Lernverfahren Vorurteile entstehen. Nur weil Information auf Daten basiere, so Google, sei sie nicht automatisch neutral. Selbst bei guten Absichten sei es “unmöglich, dass Menschen sich von ihren Vorurteilen lösen”.


MIXEDCAST #171: Das Carmack-Drama, Stormland und Magic Leak |
Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.

Meistgelesen
Meistkommentiert
Inspect AR


✔ Mixed-Reality-News per E-Mail
✔ VR, AR, KI
✔ Jederzeit kündbar
✔ Kostenlos

Datenschutz