“Naja, wenn der Chef das sagt …”

Bekannt geworden sind Deepfakes zwar im Kontext von KI-gefälschten Fotos und Videos, aber das zugrundeliegende Prinzip lässt sich ebenso auf Audio übertragen:

Ein neuronales Netz wird mit möglichst vielen visualisierten Stimmproben einer Person trainiert und lernt so, mit einer künstlichen Stimme ähnlich oder fast identisch der Originalstimme zu sprechen.

Jetzt berichtet die Cyber-Sicherheitsfirma Symantec von drei Fällen, in denen Angreifer Deepfake-Audio verwendet haben sollen, um die Stimme des Geschäftsführers zu imitieren. Der Angreifer tippt, die Klonstimme spricht.

Mit dieser Fake-Stimme riefen sie in der Finanzabteilung an und gaben Anweisungen durch für eine dringende Überweisung. Ungereimtheiten in der KI-Klonstimme wurden mit Hintergrundgeräuschen maskiert.

Durch diese Masche erbeuteten die Deepfake-Ganoven angeblich Millionen US-Dollar. Die Namen der betroffenen Unternehmen sind nicht bekannt.

Die Trainingsdaten gibt’s frei Haus

Audiomaterial fürs KI-Training liefern zumindest größere Unternehmen für gewöhnlich reichlich: Bei YouTube und Co. existieren Aufzeichnungen von öffentlichen Auftritten und Reden des CEOs…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Bose AR, PS5 VR und Spot Spott | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.