Äußere Merkmale allein sollen nicht über das Geschlecht Auskunft geben, findet Google, und deaktiviert die entsprechende Funktion in einer KI-Entwicklerschnittstelle.

Künstliche Intelligenz verleiht unseren Maschinen Augen: Durch Kameras betrachtet, können Objekte und Menschen gleichermaßen analysiert und identifiziert werden. Googles KI-Kamera Lens beispielsweise erkennt laut des Unternehmens schon mehr als eine Milliarde Objekte.

Eines sollen Googles Bildanalyse-Systeme in Zukunft jedoch nicht mehr unterscheiden: Das Geschlecht einer Person. Die entsprechende Schnittstelle von Googles Bildanalyse-KI “Cloud Vision” gibt ab sofort nicht mehr aus, ob eine identifizierte Person eher Mann oder eher Frau ist. Stattdessen soll die Zuweisung “Person” genügen.

Die Änderungen ist bereits umgesetzt: Vor dem API-Update analysierte Googles Cloud Vision noch das Geschlecht anhand äußerer Merkmale.

Die Änderung ist bereits umgesetzt: Vor dem API-Update analysierte Googles Cloud Vision noch das Geschlecht einer Person anhand äußerer Merkmale.

Jetzt zeigt die Cloud-Vision-KI nur noch das Label "Person" an. Bild: Eigener Screenshot

Jetzt zeigt die Cloud-Vision-KI nur noch das Label “Person” an. Die Schnittstelle kann hier getestet werden. Bild: Eigener Screenshot

Aussehen ungleich Geschlecht

Laut Google wurde die Anpassung vorgenommen, da es nicht möglich sei, allein aufgrund des äußeren Erscheinungsbilds auf das Geschlecht einer Person zu schließen. Die Entscheidung sei entlang der eigenen KI-Prinzipien getroffen worden, die laut Regel #2 vorurteilsbehaftete Künstliche Intelligenz verhindern sollen.

“KI-Algorithmen und -Datensätze können unfaire Verzerrungen widerspiegeln, verstärken oder reduzieren. Wir sind uns bewusst, dass die Unterscheidung zwischen fairen und unfairen Vorurteilen nicht immer einfach ist und sich von Kultur zu Kultur und Gesellschaft unterscheidet. Wir werden versuchen, ungerechte Auswirkungen auf Menschen zu vermeiden, insbesondere solche, die mit sensiblen Merkmalen wie Rasse, Ethnizität, Geschlecht, Nationalität, Einkommen, sexueller Orientierung, Fähigkeiten und politischer oder religiöser Überzeugung zusammenhängen.”

Google verzichtete schon zuvor auf ein KI-Feature, um Geschlechtervorurteile zu vermeiden: Die Gmail-Funktion “Smart Compose”, die automatisch Sätze vervollständigt, hatte versteckte geschlechtsspezifische Vorurteile übernommen. Beispielsweise wurde bei der Autovervollständigung der Investor automatisch als “er” bezeichnet, obwohl es auch eine Investorin hätte sein können.

Da solche Vorurteile nicht nachträglich aus den Daten entfernt werden konnten, schlägt Smart Compose keine geschlechtsspezifischen Pronomen mehr vor.

Via: Twitter

Weiterlesen über KI-Vorurteile:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Deepfake Trends, VR-Roboter und Focals-Fail | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.