Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Falls Künstliche Intelligenz zukünftig tatsächlich Wirtschaft und Gesellschaft umkrempelt, dann wird den Daten für das KI-Training ein besonderer Wert zuteil. Wie schützen wir uns vor schlechten Trainingsdaten oder bewahren die Rechte der Ersteller guter Trainingsdaten?
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Zwar sind viele vortrainierte KI-Modelle und Trainingsdatensätze frei verfügbar. Aber je spezifischer die zu entwickelnde KI sein soll, desto genauer müssen auch die Trainingsdaten zusammengestellt werden.
Menschen müssen definieren, welche Inhalte im Datensatz stecken sollen. Dieser Schritt ist für das KI-Training ausschlaggebend, denn auf Basis dieser Daten wird die KI später ihre Entscheidungen fällen.
___STEADY_PAYWALL___
Ein gut zusammengestellter Datensatz mit seltenen Trainingsdaten könnte demnach einen hohen Wert haben.
Ist der Datensatz hingegen schlecht zusammengestellt, verfehlt die KI ihre Ziele, oder, schlimmer noch, sie produziert Ergebnisse, die zwar oberflächlich korrekt erscheinen, in denen aber Vorurteile stecken.
KI-Trainingsdatentracking gegen Diebstahl und Vorurteil
Das Prinzip folgt dem eines Wasserzeichens: In ein Bild oder Video werden minimale Veränderungen eingefügt, die für das bloße Auge nicht sichtbar sind und die Genauigkeit einer Bildanalyse-KI nicht beeinflussen sollen.
Die Bilder in der obersten Reihe sind unbearbeitet, die darunter enthalten die Markierung. Die dritte Reihe zeigt die Markierung um den Faktor fünf vergrößert. Die letzte Zeile zeigt zu Demonstrationszwecken die Bilder mit der vergrößerten Markierung. Bild: Facebook AI
Ist dieses Wasserzeichen in einen Datensatz implementiert, kann es „mit hoher Wahrscheinlichkeit“ im fertig trainierten KI-Modell nachgewiesen werden. So wäre offensichtlich, ob ein KI-Modell beispielsweise mit gestohlenen oder vorurteilsbehafteten Daten trainiert wurde. Die Blackbox KI würde dadurch ein stückweit transparenter.
Die Forscher sprechen bei ihrer Markierung auch von „radioaktiven Daten“, analog zu entsprechenden Markern in der Medizin, die erst unter Röntgenstrahlung sichtbar werden. Laut der Forscher reicht es, wenn nur ein Prozent der gesamten Trainingsdaten markiert ist. Es sei „extrem schwierig“, zu erkennen, ob ein Datensatz markiert ist oder übertragene Markierungen von einem trainierten KI-Modell zu entfernen.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.