Die Stadt New York wollte in einem groß angelegten Test Autofahrer per Gesichtserkennung identifizieren. Das Ergebnis: Ein System von beeindruckender Ungenauigkeit.

Für das Pilotprogramm wurden Kameras auf der Robert F. Kennedy Brücke installiert. Die sollten Gesichter von Autofahrern durch ihre Windschutzscheibe erfassen und mit Datenbanken der Regierung abgleichen.

In einer internen E-Mail des staatlichen Verkehrsunternehmens „Metropolitan Transportation Authority“ (MTA) heißt es, die erste Testphase sei abgeschlossen – und gescheitert. Es seien „keine Gesichter (0 %) innerhalb akzeptabler Parameter“ erkannt worden.

Mit anderen Worten: Die Gesichtserkennung identifizierte kein einziges Gesicht so verlässlich, dass die Daten verwertet werden konnten.

Tests gehen weiter

Der Grund für das Versagen: Aktuelle Technologie sei noch nicht in der Lage, Gesichter bei hohen Geschwindigkeiten zuverlässig zu identifizieren. Die Hoffnung der Stadt ist offenbar, dass sich das bald ändert: New York will die Gesichtserkennung nicht aufgeben und weitere Kameras an öffentlichen Plätzen installieren.

Dahinter steht das Versprechen an die Bürger, die Sicherheit der Stadt zu erhöhen. Fast eine Million Fahrzeuge erfasst das Verkehrsunternehmen MTA täglich auf sieben Brücken und zwei Tunneln. Eine breit angelegte, funktionierende Überwachung könnte etwa Terroristen identifizieren, bevor sie in der Stadt verschwinden, so die Hoffnung.

KI-Überwachung: Ethische und technische Grenzen

Das Pilotprojekt in New York zeigt, wie weit der Weg noch ist zu Erkennungssystemen, die nachweislich und verlässlich das korrekte Ergebnis ausspucken bei möglichst geringer oder im Optimalfall keiner Fehlerquote.

Diese angestrebte Verlässlichkeit ist ein Schwert mit zwei Schneiden. Einerseits ermöglicht sie eine lückenlose Überwachung einzelner Menschen. Das mag in bestimmte Szenarien Sicherheit bringen, die Technologie könnte aber auch für einen Überwachungsstaat missbraucht werden. Das zeigt zum Beispiel Chinas Scoring-System für die eigenen Bürger.

Andererseits führen Fehlentscheidungen unzuverlässiger Erkennungssysteme ebenfalls zu drastischen Konsequenzen: Amazons KI-gestützte Rekognition-Software beispielsweise wird Rassismus vorgeworfen. In China verwechselte eine KI-Kamera ein Werbefoto auf einem Bus mit der realen Person – und demütigte sie öffentlich wegen einer vermeintlichen Straßenüberquerung bei roter Fußgängerampel.

Quellen: Technologyreview, WSJNextweb

Weiterlesen über Künstliche Intelligenz


MIXED-Podcast #150: Valve Index und Apples AR-Augen | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.