OpenAIs DALL-E 2 ist ziemlich regelkonform – aber wer ist verantwortlich?

OpenAIs DALL-E 2 ist ziemlich regelkonform – aber wer ist verantwortlich?

Seit dem Beta-Start der Bild-KI DALL-E 2 generierten Nutzer:innen mehr als drei Millionen Bilder. OpenAI zieht ein erstes Zwischenfazit.

Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

Ähnlich wie bei der Text-KI GPT-3 geht OpenAI auch bei der Ausrollung der Bild-KI DALL-E 2 umsichtig vor. Die größte Sorge des Unternehmens dürfte sein, dass das System wiederholt Bilder generiert, die gegen gesellschaftliche Konventionen oder gar gegen das Gesetz verstoßen.

Wie verhält sich das System, wenn hunderttausende Menschen zig Millionen Bilder generieren? Das ist schwer zu prognostizieren. Schon bei der Vorstellung von DALL-E 2 ging OpenAI daher transparent mit Defiziten um, etwa dass das System speziell bei Stock-Fotografien gängige Geschlechterklischees bedient. Flugbegleiter etwa sind weiblich, Richter hingegen männlich.

DALL-E 2 generiert weitgehend regelkonform

Nach drei Millionen generierten Bildern zieht OpenAI ein erstes Zwischenfazit. 0,05 Prozent der generierten Bilder hat das System als potenziellen Verstoß gegen Inhalte-Richtlinien gekennzeichnet. Von diesen 0,05 Prozent wiederum seien 30 Prozent von menschlichen Prüfer:innen als tatsächlicher Verstoß gewertet worden, der zu einer Account-Sperrung führte.

Weiter verzichten will OpenAI auf die Generierung fotorealistischer Gesichter. Dies sei eine effektive Methode, möglichen Schaden zu limitieren, schreibt die Firma, die außerdem weiter an den aus den Trainingsdaten übernommenen Vorurteilen im KI-System arbeiten will.

In den Inhalte-Richtlinien untersagt OpenAI unter anderem die Generierung von sexuellen Inhalten, extremer Gewalt, negativen Stereotypen und Straftaten.

OpenAI bleibt vorsichtig

Rund 450 Bilder von drei Millionen generierten Bildern verstießen also gegen OpenAIs Inhalte-Richtlinien. Das klingt nach wenig, könnte aber bei der Skalierung des Systems im großen Stil noch immer zu einer Flut an negativen Eindrücken zur Bild-KI führen.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 2,80 € / Monat
logo

Empfohlener Beitrag

OpenAI: DALL-E 2 besteht den „Turing-Test für Urlaubsfotos“
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen.
Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.

OpenAI agiert daher weiter vorsichtig: Das Unternehmen will zwar wie gehabt in der Praxis lernen, aber lässt neue Nutzer:innen nur in kleiner Zahl zu – 1.000 pro Woche. Alle Beta-Tester:innen müssen zudem den Inhalte-Richtlinien zustimmen.

„Wir hoffen, dass wir die Zahl der neuen Nutzer erhöhen können, wenn wir mehr lernen und mehr Vertrauen in unser Sicherheitssystem gewinnen“, schreibt OpenAI. Ein größerer Rollout von DALL-E 2 ist voraussichtlich für den Sommer geplant.

Wer ist verantwortlich – Künstler und Künstlerinnen oder die Kunstmaschine?

Ähnlich wie bei der Text-KI GPT-3, auch hier passierten teils drastische Verstöße gegen OpenAIs Richtlinien, und mit Blick auf noch mächtigere generative KI-Systeme in der Zukunft steht die Frage der Verantwortung weiter ungeklärt im Raum: Wer trägt sie – der Hersteller des Werkzeugs oder dessen Anwender:innen? Diese Frage stellt sich auch in anderen KI-Kontexten, etwa bei militärischen Systemen oder beim autonomen Fahren.

OpenAI übernimmt durch die selbst auferlegten Inhalte-Richtlinien samt derer engmaschigen Kontrolle vorausschauend Verantwortung. Letztlich kommt das Unternehmen aber so in eine Rolle, in der es kulturübergreifend die Grenzen von Moral, Kunst, Meinungsfreiheit und des guten Geschmacks bestimmen muss. Das ist nicht gerade die Kernkompetenz von Technologiekonzernen – und auch nicht deren Zuständigkeitsbereich.

Quellen: OpenAI

Empfohlene Beiträge