Mit einer per Deepfake geklonten CEO-Stimme sollen Diebe telefonisch eine Überweisung auf ihr Konto angeleiert haben.

Ende Juni berichtete zuerst die Cyber-Sicherheitsfirma Symantec von drei Fällen, in denen Diebe mit Deepfake-Technologie die Stimme eines Unternehmensentscheiders kopierten. Mit der Fake-Stimme riefen sie dann in der Buchhaltung des Unternehmens an und erbaten eine eilige Überweisung auf ein unbekanntes Konto. Mit der Masche sollen Millionen US-Dollar erbeutet worden sein.

Das Wall Street Journal berichtet jetzt über Details zu einem Deepfake-Diebstahl, bei dem der Geschäftsführer eines Energieunternehmens in UK getäuscht wurde. Er erhielt einen Fake-Anruf seines Vorgesetzten, dem Chef der deutschen Muttergesellschaft.

Sogar der deutsche Akzent passte

Mit der Deepfake-Stimme forderten die Diebe eine eilige Überweisung innerhalb einer Stunde an einen vermeintlichen Lieferanten in Ungarn an. Das Opfer fiel auf die Stimme herein, sogar der leichte deutsche Akzent soll gepasst haben, und überwies 220.000 Euro auf ein ungarisches Konto. Von dort wurde es schnell nach Mexiko und an weitere Orte transferiert.

Zwei weitere Anrufe folgten: Beim zweiten Anruf versicherte die Deepfake-Stimme, dass die deutsche Muttergesellschaft das Geld erstattet habe. Beim dritten Anruf wurde eine zweite Zahlung gefordert. Da die Erstattung allerdings noch nicht eingetroffen war und der Anruf von einer österreichischen Nummer kam, war der CEO des UK-Unternehmens skeptisch – und beuaftragte die zweite Überweisung nicht.

Der Vorfall soll sich im März ereignet haben. Die Informationen stammen von Euler Hermes, dem Versicherer des Unternehmens. Der Name des geschädigten Unternehmens ist nicht bekannt.

Überzeugende Deepfake-Stimmen sind möglich

Zwar hängt Deepfake-Audio den visuellen Deepfakes noch hinterher, aber bei ausreichend Trainingsmaterial sind durchaus täuschend echte Stimmklone möglich. Dieses Trainingsmaterial bieten zumindest größere Unternehmen für gewöhnlich kostenlos im Web an, zum Beispiel in Aufzeichnungen von Telefonkonferenzen zu Finanzdaten oder von Reden und Interviews des CEOs.

Das KI-Startup Dessa demonstrierte kürzlich eine Deepfake-Stimmkopie des Podcasters Joe Rogan, der bei YouTube über 1.300 Videos mit unzähligen Stunden Stimmaufnahmen online hat. Im folgenden Video wurde laut Dessa jedes Wort per maschinellem Lernverfahren generiert – die Demonstration zeigt, wie glaubhaft Computer menschliche Stimmen kopieren können.

Stimmfälschung wird einfacher

Das Problem: Menschen können die Echtheit von Audio noch schlechter beurteilen als bei Video. Und eine verlässliche, automatische Fake-Erkennung existiert noch nicht.

Gleichzeitig drängen neue Apps auf den Markt, die Stimmkopien vereinfachen und so für Laien zugänglich machen. Außerdem könnten neue KI-Trainingsmethoden dafür sorgen, dass die Menge an benötigtem KI-Trainingsmaterial sinkt.

In diesem Szenario würde schon ein kurzer Mitschnitt eines Telefongesprächs zum Beispiel in der Bahn ausreichen, um eine Stimmkopie zu erstellen. So würde die größte Einstiegshürde reduziert. Umso wichtiger wären auf der Gegenseite neue Methoden, mit denen Deepfakes – egal ob Ton oder Video – verlässlich entlarvt werden können.

Quelle: Wall Street Journal

Weiterlesen über Künstliche Intelligenz:


MIXEDCAST #169: Deepfake-Hollywood und VR-Hoffnung Oberhausen | Alle Folgen


Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.