Google schreibt KI-Forschern „positiven Ton“ vor

Google schreibt KI-Forschern „positiven Ton“ vor

Google soll für ethisch kritische KI-Forschungsarbeiten einen neuen Prüfungsprozess eingeführt haben, bei dem Arbeiten auch auf ihre Tonalität geprüft und falls nötig in ein positives Licht gedreht werden.

Der Nachrichtendienst Reuters berichtet unter Berufung auf insgesamt acht aktuelle und ehemalige Google-Angestellte, dass Google seit wahrscheinlich Juni 2020 einen neuen Prüfungsprozess für KI-Forschungsarbeiten über „sensible Themen“ eingeführt hat. In mindestens drei Fällen soll so die Tonalität von Forschungsarbeiten in eine positive Richtung beeinflusst worden sein.

Als sensibel gelten unter anderem Themen mit starker ethischer Dimension wie die Ölindustrie, China, Iran, Israel, COVID-19, Haussicherheit, Versicherungen, Standortdaten, Religion, selbstfahrende Fahrzeuge, Telekommunikation und Systeme, die Webinhalte empfehlen oder personalisieren.

___STEADY_PAYWALL___

Forschungsarbeiten, die in diesen sensiblen Bereich fallen, müssten ergänzend zum standardmäßigen Prüfungsprozess eine Zusatzrunde drehen, berichtet Reuters. Dabei soll es in mindestens drei Fällen zu einer nachträglichen Einflussnahme bezüglich der Tonalität der Arbeit gekommen sein.

Fördern Empfehlungssysteme Desinformation oder Fairness?

Bei einer Forschungsarbeit über Empfehlungssysteme, die bei Services wie YouTube die Auswahl angezeigter Inhalte personalisieren, soll den Wissenschaftlern seitens eines Senior-Managers dazu geraten worden sein, besonderen Wert auf einen positiven Ton zu legen – ohne sich allerdings vor den Herausforderungen entsprechender Systeme zu verstecken.

„Achten Sie sehr auf einen positiven Ton“, heißt es in der internen Korrespondenz, die Reuters vorgelesen wurde. „Das bedeutet nicht, dass wir uns vor den wirklichen Herausforderungen verstecken sollten.“

In besagter Arbeit über Empfehlungssysteme soll im Originaltext der Satz gestanden haben, dass diese „Desinformation, diskriminierende oder anderweitig unfaire Ergebnisse“, „unzureichende Vielfalt der Inhalte“ und „politische Polarisierung“ begünstigen könnten.

In der veröffentlichten Forschungsarbeit mit dem Titel „Wofür optimierst du? Empfehlungssysteme an menschlichen Werten ausrichten“ steht hingegen, dass Empfehlungsalgorithmen „genaue Informationen, Fairness und Vielfalt der Inhalte“ fördern könnten sowie die Reduzierung von Sucht und Polarisierung möglich sei. An dieser Stelle im Text werden jeweils andere Forschungsarbeiten zitiert.

Das Produkt YouTube oder Google-Forscher werden in der veröffentlichten Version nicht mehr erwähnt. Der Verweis auf YouTube soll vor der Veröffentlichung aus der Arbeit entfernt worden sein.

KI-Forschung bei Google: Senior-Forscherin beklagt Wissenschaftszensur

Ein Forschungspapier über das maschinelle Verstehen einer Fremdsprache, bei dem ein Fehler von Googles Übersetzungsservice Translate referenziert wird, wurde laut Reuters nach einer internen Anfrage ebenfalls abgeschwächt.

In einem weiteren Forschungspapier wurde beschrieben, wie die mit Internetdaten trainierte KI GPT-2 persönliche Informationen und urheberrechtlich geschütztes Material – darunter eine Seite aus einem Harry Potter-Roman – als Ergebnis ausgeben kann. Auch Google trainiert KI-Sprachmodelle mit Internettext.

Ein Entwurf des Forschungspapiers beschrieb, wie die KI daher gegen Urheberrechte oder europäisches Datenschutzrecht verstoßen könnte. Nach einer internen Überprüfung entfernten die Autoren die Verweise auf mögliche rechtliche Risiken und das Papier wurde veröffentlicht.

Ein Google-Mitarbeiter beschreibt den Prüfungsprozess gegenüber Reuters als „Marathon“, bei dem mehr als 100 E-Mails zwischen Forschern und Gutachtern gewechselt wurden. Diskussionen zu Urheber- und Datenschutzrecht bei großen KI-Sprachmodellen wurden stattdessen bei Berkeley Artificial Intelligence Research und in Googles AI Blog veröffentlicht.

„Wenn wir mit unserer Expertise das Richtige erforschen und uns die Veröffentlichung aus Gründen nicht erlaubt wird, die nicht im Einklang mit einer qualitativ hochwertigen Peer Review stehen, dann bekommen wir ein ernsthaftes Zensurproblem“, sagt die für Google tätige Senior-Forscherin Margeret Mitchell.

Quelle: Reuters, The Guardian

Weiterlesen über KI bei Google: