Die Gesichtserkennungssoftware des Metropolitan Police Service in London soll in 81 Prozent der Fälle falschliegen.

Forscher des Zentrums für Menschenrechte der Universität Essex untersuchten die Ergebnisse von sechs Gesichtserkennungstests der Londoner Polizeibehörde Metropolitan Police, die zwischen Juni 2018 und Februar 2019 stattfanden. Die Tests liefen in Soho, Romford und im Westfield Einkaufszentrum in Stratford in East London, berichtet die britische Zeitung The Guardian.

Die Kameras waren an Pfosten oder an Kleinbussen angebracht. Zum Einsatz kam die Software “Neoface” des japanischen Unternehmens NEC (siehe Werbevideo unter dem Artikel).

Laut der Forscher identifizierte das Gesichtserkennungssystem in circa vier von fünf Fällen die falsche Person, die dann durch die Polizei gestoppt wurde: Von 42 Personen wurden 22 angehalten, nur acht davon berechtigt. Einige wurden für eine Tat gestoppt, die bereits vor Gericht verhandelt wurde. Andere gestoppte Personen waren bekannte Gewaltverbrecher.

Die Forscher kritisieren, dass die Polizei Personen zu schnell gestoppt habe, anstatt ihre Hintergründe gründlich zu überprüfen. Sie hielt sowohl gerichtlich gesuchte Personen an als auch solche, die als “gefährdet oder anfällig” eingestuft sind.

Die Fahndungslisten sollen mitunter veraltet gewesen sein. Es sei “sehr wahrscheinlich”, dass vor Gericht ein Gesetzesverstoß seitens der Polizei festgestellt würde, so die Forscher.

Londoner Polizei wehrt sich gegen Vorwürfe

Laut Scotland Yard sind die Untersuchungsergebnisse nicht korrekt: Die Gesichtserkennung soll, basierend auf einem anderen Auswertungsverfahren, nur in einem von 1.000 Fällen einen Fehler machen.

Der Einsatz des Systems sei legal, die Software identifiziere verdächtige Personen erfolgreich. Die Öffentlichkeit erwarte, dass die Polizei mit neuen Technologien experimentiere. Der Bericht der Forscher sei “extrem enttäuschend” und voreingenommen.

Auch die Polizei in Manchester, Leicester und South Wales sollen Gesichtserkennungssysteme bereits im Einsatz haben.

Die Polizei ist der kleinere Kunde

Ähnliche Gesichtserkennungssysteme sollen laut The Guardian in Werbeinstallationen in Einkaufszentren eingesetzt werden, um das Alter, das Geschlecht und die Stimmung von Einkäufern zu erfassen.

Die Forscher warnen vor den Gefahren der Überwachungstechnologie, die womöglich Menschenrechte verletze wie das Recht auf Privatheit, die Meinungsfreiheit und das Recht zu protestieren.

Unter anderem setzt China im großen Maßstab KI-gestützte Gesichtserkennung ein, zum Beispiel um Verkehrssünder zu blamieren oder um die ethnische Minderheit der Uiguren zu verfolgen.

In den USA regte sich in den letzten Monaten deutlicher Widerstand gegen den Einsatz von KI-Überwachung durch Behörden: KI-Forscher fordern einen Verkaufsstopp für die ebenfalls für Fehler kritisierte Gesichtserkennungssoftware “Rekognition” von Amazon.

Die US-Stadt San Francisco untersagte KI-gestützte Kameraüberwachung weitgehend per Gesetz. In Deutschland setzt die Stadt Mannheim KI-gestützte Überwachungskameras ein, die allerdings keine Gesichter erkennen, sondern bei verdächtigen Bewegungen Alarm schlagen.

Quellen: The Guardian, Sky News; Titelbild: NEC (Screenshot bei YouTube)

Weiterlesen über KI-Überwachung:


MIXEDCAST #169: Deepfake-Hollywood und VR-Hoffnung Oberhausen | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.