KI-Zukunftsprognose: Minority Report ist noch ein Hirngespinst

KI-Zukunftsprognose: Minority Report ist noch ein Hirngespinst

Was wäre, wenn wir wüssten, was aus unseren Kindern wird? Oder ob ein Verbrecher erneut kriminell wird? Zahlreiche Forscher testeten die Voraussicht Künstlicher Intelligenz anhand eines Beispiels. Das Ergebnis ernüchtert Big-Data-Propheten.

Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

Ob Horoskop oder Statistik: Der Mensch sucht nach Werkzeugen, die Zukunft vorherzusehen. Eine neue Studie untersucht nun die Fähigkeit statistischer Methoden wie Künstlicher Intelligenz, die Entwicklung von Neugeborenen und Familien vorherzusagen.

Solche KIs für Zukunftsprognosen sind im Kontext von Verbrechen schon im Einsatz: Sie sollen zum Beispiel prognostizieren, ob ein Angeklagter erneut straffällig wird oder ob ein Kind in Gefahr ist, misshandelt zu werden. Dahinter steht das Versprechen einer besseren Gesellschaft, in der Verbrechen verhindert werden, bevor sie passieren. Mit genug Daten sollen diese Systeme angeblich verlässlich sein.

___STEADY_PAYWALL___

Eine neue, besonders umfassende Studie dreier Sozialwissenschaftler der Universität Princeton lässt an dieser Verlässlichkeit starke Zweifel aufkommen. Sie stellt KI-Prognosen im gesellschaftlichen Kontext grundlegend in Frage.

Hunderte Wissenschaftler versuchten sich an Vorhersagen

Die Soziologen baten hunderte Wissenschaftler anhand von 13.000 Datenpunkten von etwa 4.000 Familien sechs spezifische Vorhersagen über die Zukunft der Familie zu treffen, darunter der Notendurchschnitt der Kinder, das Armutsniveau oder ob die Familie ihr Haus verlieren wird.

Die Forscher erhielten für das KI-Training einen Auszug der Daten, die seit dem Jahr 2000 15 Jahre lang im Rahmen einer soziologischen Studie in amerikanischen Großstädten gesammelt wurden.

Empfohlener Beitrag

Eine neue KI soll Verbrecher an ihrem Gesicht erkennen. Kann das funktionieren?
Wissenschaftler protestieren gegen Veröffentlichung umstrittener KI-Forschung
Eine KI soll Verbrecher an ihrem Gesicht erkennen. Über 1.700 Wissenschaftler fordern das Verlagshaus Springer auf, die Veröffentlichung zu stoppen.

160 Teams mit Computerwissenschaftlern, Statistikern und Forschern der Computational Social Science (CSS) hatten fünf Monate Zeit für ihre Vorhersagen. Anschließend wurden die Ergebnisse von den Autoren der Studie geprüft und mit der Realität verglichen.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 2,80 € / Monat
logo

Keine Methode lag richtig

Die Forschungsteams arbeiteten mit unterschiedlichen Methoden, sie setzten klassische Statistikverfahren ein ebenso wie Deep-Learning-Systeme. Doch die Methodenwahl änderte nichts am Ergebnis: Kein Team kam auch nur in die Nähe verlässlicher Prognosen.

Darüber hinaus zeigte sich, dass die KI-Systeme bei Vorhersagen keinen nennenswerten Vorsprung gegenüber menschlichen Experten hatten.

Für Mitautor Matthew Salganik ist die eigene Studie ein Warnsignal an Big-Data-Propheten: „Große Datenmengen und kompliziertes maschinelles Lernen garantieren keine genauen Vorhersagen. Politische Entscheidungsträger, die wenig Erfahrung mit KI-Systemen haben, könnten unrealistische Erwartungen haben.“

Quelle: PNAS, Technology Review

Weiterlesen über Künstliche Intelligenz:

Empfohlene Beiträge