Inhalt
newsletter Newsletter

Wissenschaftler zeigen, wie sie einen Bilderkennungsalgorithmus von Google austricksen. Das Verfahren funktioniert laut den Entwicklern verlässlich für verschiedene Objekte und 2D-Bilder sowie 3D-Modelle.

KI-Forscher am MIT haben eine Methode entwickelt, mit der sie ein künstliches neuronales Netz von Google, das auf die Objekterkennung in Bildern trainiert wurde, austricksen können. Sie veranschaulichen das an einem 3D-Modell einer Schildkröte, das vom Google-Algorithmus unabhängig vom Blickwinkel als Gewehr erkannt wird. Die Wissenschaftler nennen als weiteres Beispiel einen Baseballschläger, der als Espressotasse durchgeht.

Für dieses Täuschungsmanöver entwickelten die Wissenschaftler einen gegnerischen Algorithmus. Dieser manipuliert gezielt einzelne Parameter am Objekt wie Unschärfe, Rotation, Zoom oder Farbgebung. Diese Veränderungen können so geringfügig sein, dass sie dem menschlichen Auge kaum auffallen. Das Verfahren funktioniert sowohl für 2D-Bilder als auch 3D-Modelle.

Googles Algorithmus wird selbst dann nicht stutzig, wenn das Objekt nicht mehr in den Kontext der Umgebung passt, also ein Baseballspieler plötzlich mit einer Espressotasse in der Hand auf dem Spielfeld steht oder ein Gewehr unter Wasser taucht.

Anzeige
Anzeige

Potenzielle Sicherheitslücke

Besonders problematisch würde dieser Hack, wenn sich Menschen in sicherheitsrelevanten Fragen rein auf visuelle algorithmische Erkennungsverfahren stützen. Ein gutes Beispiel ist die Sicherheitskontrolle am Flughafen, an der man mit der beschriebenen Methode Waffen und gefährliche Gegenstände vorbeischmuggeln könnte.

Ähnlich gravierend wären manipulierte Straßenschilder, die selbstfahrende Autos in die Irre führen. Vergleichbare Risiken lassen sich für alle Szenarien entwickeln, in denen ein Computer visuelle Kontrolle im Alleingang ausübt.

Google und Co. kennen diese Schwachstellen in ihren Systemen und arbeiten daran, sie auszumerzen. Entsprechend geht der Wettlauf zwischen Cyber-Sicherheit und Hackern im Zeitalter der Künstlichen Intelligenz weiter.

Die Frage ist, wie sehr sich die Tragweite möglicher Hacks ausweitet und wie einfach zugänglich diese werden. Die MIT-Forscher sprechen beispielsweise von T-Shirts mit speziellen Motiven, die solche visuellen Widersprüche verursachen und KI-Kontrollen mit minimalem Aufwand täuschen könnten.

Details zum Projekt stehen hier, das Paper gibt es hier.

Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Anzeige
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!
Empfehlung
| Featured Image: Lab Six (Screenshot bei YouTube)
Unterstütze unsere unabhängige, frei zugängliche Berichterstattung. Jeder Betrag hilft und sichert unsere Zukunft. Jetzt unterstützen:
Banküberweisung
Online-Journalist Matthias ist Gründer und Herausgeber von THE DECODER. Er ist davon überzeugt, dass Künstliche Intelligenz die Beziehung zwischen Mensch und Computer grundlegend verändern wird.
Community beitreten
Kommt in die DECODER-Community bei Discord,Reddit, Twitter und Co. - wir freuen uns auf euch!