Deepmind jüngste Veröffentlichung beschäftigt sich mit der Sicherheit von KI – und kommt zu einem ernüchternden Ergebnis.

Das häufig eingesetzte KI-Trainingsverfahren Bestärkendes Lernen (Erklärung) hat ein Sicherheitsproblem. Experten bezeichnen es schöner als Ausrichtungsproblem: Wie stellen wir sicher, dass eine KI-Lösung für ein menschliches Problem das gewünschte Resultat liefert?

Geschichten wie der unaufhaltsame Wischmopp des Zauberlehrlings oder die alles zu Gold verwandelnde Berührung von König Midas veranschaulichen den Kern des Problems: Wir bekommen wortwörtlich das, wonach wir gefragt haben – und nicht das, was wir wollten. König Midas wollte eigentlich nur reich sein. Stattdessen verwandelte er selbst seine Frühstücksbrötchen zu Gold.

Das kann uns auch bei KI passieren. Die Wurzel dieses Problems ist die sogenannte Nutzenfunktion: Sie legt beim bestärkenden Lernen fest, für welche Handlungen die Deepmind: Weshalb man KI nicht von der Leine lassen darf was last modified: Mai 3rd, 2020 by Maximilian Schreiner


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.