Wie fair kann ein Algorithmus sein? So fair wie seine Trainingsdaten. Das zeigt eine interaktive Tour durch das Innere von COMPAS.

COMPAS ist ein “Risikoeinschätzungswerkzeug” der Firma Northpointe, das Richtern in den USA helfen soll, die Rückfallwahrscheinlichkeit von Angeklagten einzuschätzen. COMPAS wird unter anderem in den Bundesstaaten New York, Kalifornien und Wisconsin eingesetzt.

COMPAS wird mit historischen Daten bereits abgeschlossener Verfahren trainiert und soll Korrelationen zwischen Faktoren wie Alter oder Vorstrafen und Rückfallquote herstellen. Die Software soll Richtern helfen, zu entscheiden, ob ein Angeklagter die Zeit bis zu seinem Verfahren im Gefängnis sitzen muss oder in Freiheit verbringen kann. So sollen Verbrechen zwischen Anklage und Verfahren verhindert werden.

Hohes Risiko oder Vorurteile?

COMPAS gibt für jeden Angeklagten einen Risikowert zwischen eins und zehn aus, der eine Empfehlung an den Richter darstellt. Angeklagte mit hohem Risikowert sollen eine Gefahr für die Gesellschaft sein und daher im Gefängnis auf ihre Verhandlung warten.

Systeme wie COMPAS sollen das Rechtssystem fairer machen und etwaigen Vorurteilen der Richter entgegenwirken. Doch das Märchen vom objektiven Algorithmus hält nicht stand: Obwohl COMPAS Hautfarbe offiziell nicht als Faktor einbezieht, wies Künstliche Gerechtigkeit im Test: Seid ihr fairer als der KI-Richter? was last modified: Oktober 27th, 2019 by Maximilian Schreiner


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.