“Naja, wenn der Chef das sagt …”

Bekannt geworden sind Deepfakes zwar im Kontext von KI-gefälschten Fotos und Videos, aber das zugrundeliegende Prinzip lässt sich ebenso auf Audio übertragen:

Ein neuronales Netz wird mit möglichst vielen visualisierten Stimmproben einer Person trainiert und lernt so, mit einer künstlichen Stimme ähnlich oder fast identisch der Originalstimme zu sprechen.

Jetzt berichtet die Cyber-Sicherheitsfirma Symantec von drei Fällen, in denen Angreifer Deepfake-Audio verwendet haben sollen, um die Stimme des Geschäftsführers zu imitieren. Der Angreifer tippt, die Klonstimme spricht.

Mit dieser Fake-Stimme riefen sie in der Finanzabteilung an und gaben Anweisungen durch für eine dringende Überweisung. Ungereimtheiten in der KI-Klonstimme wurden mit Hintergrundgeräuschen maskiert.

Durch diese Masche erbeuteten die Deepfake-Ganoven angeblich Millionen US-Dollar. Die Namen der betroffenen Unternehmen sind nicht bekannt.

Die Trainingsdaten gibt’s frei Haus

Audiomaterial fürs KI-Tra…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Erdanker, Deepfake-Videokonferenzen und Quest-2-Grafik | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.