Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Künstliche Intelligenz schafft neue Möglichkeiten – auch für Kriminelle. Forscher haben eine Liste mit potenziell besonders schwerwiegenden KI-Verbrechen ermittelt und von Experten für Sicherheit und KI bewerten lassen.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Forscher der Universität London (UCL) stellen eine Liste mit 20 möglichen KI-gestützten Verbrechen vor. Diese kriminellen Potenziale Künstlicher Intelligenz ermittelten sie anhand von Forschungspapieren, Nachrichten und popkulturellen Medien.
„In dem Maße, in dem sich die Möglichkeiten der KI-basierten Technologien erweitern, wächst auch ihr Potenzial für kriminelle Ausbeutung. Um uns angemessen auf mögliche KI-Bedrohungen vorzubereiten, müssen wir herausfinden, was diese Bedrohungen sein könnten und wie sie sich auf unser Leben auswirken könnten“, sagt der am Forschungspapier beteiligte Londoner Computerwissenschaftler Lewis Griffin.
Die Gefährlichkeit der gelisteten Verbrechen wurde bei einem zweitätigen Workshop „AI & Future Crime“ von 31 Experten für KI und Sicherheit aus der Wissenschaft, aus Unternehmen sowie aus dem öffentlichen Sektor bewertet.
Die Teilnehmer des Workshops mussten
das Ausmaß des Schadens eines KI-Verbrechens einschätzen,
den möglichen Profit,
wie leicht die KI-Technik zu bedienen
und wie schwer sie zu stoppen ist.
Nach der Bewertung teilten die Forscher die KI-Verbrechen in die Bedrohungsszenarien „hoch“, „mittel“ und „niedrig“ ein.
Deepfakes sind die größte Gefahr
Als besonders gefährlich schätzten die Workshop-Teilnehmer Deepfakes ein. Die KI-Technik soll eines Tages (fast) jedermann die glaubhafte Manipulation von Fotos und Videos ermöglichen: Die daraus resultierende Fake-Multimediaflut könnte die gesellschaftliche Kommunikation unterminieren. Die Gefahr von Deepfakes wurde in allen vier oben genannten Bewertungskategorien als hoch eingeschätzt.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Rachepornos sind ein schädliches Szenario, das andere sind Videos mit glaubhaft gefälschten Aussagen von Politikern oder Verantwortlichen aus der Wirtschaft. Das Resultat könnte ein generelles Misstrauen in die Beweiskraft von Fotos und Videos sein, insbesondere dann, wenn Erkennungsalgorithmen nicht mehr funktionen.
Autonome Autos sind gefährlicher als Killerroboter
Auch gezielt als Waffe eingesetzte autonome Autos sehen die Workshop-Teilnehmer als große Gefahr. Autos seien in den meisten Ländern deutlich einfacher verfügbar als Waffen oder Sprengstoff. Einzelne Personen könnten großen Schaden anrichten.
Militärische Killerroboter hingegen schaffen es nur in die mittlere Gefahrenkategorie. Allerdings räumten die Workshop-Teilnehmer hier fehlendes Wissen über militärische Pläne ein. In den Kategorien Schadensausmaß und Profit schätzten sie Killerroboter als große Gefahr ein.
20 KI-Verbrechen unterteilt nach Gefahrenstufen. (Klicken zum Vergrößern) | Bild: Griffin et al.
Die folgende Auflistung enthält alle durch KI mögliche oder verstärkte Verbrechensszenarien, die in dem Workshop bewertet wurden.
KI-Verbrechen in der Gefahrenstufe „hoch“
Deepfakes
fahrerlose Fahrzeuge als Waffe
maßgeschneidertes Phishing
Störung von KI-gesteuerten Systemen
Erpressung im großen Stil
KI-gefälschte Fake-News
KI-Verbrechen in der Gefahrenstufe „mittel“
Missbrauch von Militärrobotern
Schlangenöl (Betrug mit Produkten ohne echte Funktion)
Datenvergiftung (bspw. gezielt in Datensätze eingespeiste Vorurteile)
lernbasierte Cyber-Angriffe
autonome Angriffsdrohnen
Verweigerung des Zugangs zu Online-Aktivitäten
Gesichtserkennungssysteme austricksen / betrügen
Manipulation von Finanz- oder Aktienmärkten
KI-Verbrechen in der Gefahrenstufe „niedrig“
Einbrecher-Bots (bspw. durch autonome Miniaturroboter)
Umgehen der KI-Erkennung
durch KI gefälschte Internet-Bewertungen
KI-unterstütztes Stalking
Fälschung (bspw. Kunst oder Musik)
Gezielte Ausnutzung von Vorurteilen in trainierten KI-Systemen (bspw. YouTube-Nutzer in Propaganda lotsen)
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.