Diebe nutzten Deepfake-Sprachtechnologie, um einen 35-Millionen-Dollar-Banküberfall zu starten

0
145
Elnur/Shutterstock

Diebe nutzten Audio-Deepfake-Technologie, um die Stimme eines Geschäftsmanns zu klonen und eine Überweisung von 35 Millionen US-Dollar auf ausländische Konten anzuordnen, wie aus einem Gerichtsdokument von Forbes hervorgeht. Es ist die erfolgreichste “tiefe Stimme” heist bisher, obwohl es nur ein kleiner Teil eines wachsenden Trends sein könnte.

Die Deepfake-Technologie ist zu diesem Zeitpunkt ziemlich bekannt. Grundsätzlich trainieren Menschen eine KI, um das Gesicht einer Person nachzubilden, normalerweise das Gesicht eines Schauspielers oder einer anderen bekannten Person. Die KI kann dieses Gesicht dann animieren und in ein Referenzvideo einfügen, wodurch das geklonte Motiv in eine Szene eingefügt wird.

Sie können jedoch nicht einfach jemanden in ein Video einfügen, ohne seine Stimme neu zu erstellen. Und hier kommen Audio-Deepfakes ins Spiel. Sie trainieren eine KI, die Stimme einer Person zu replizieren, und sagen der KI dann, was sie mit der Stimme dieser Person sagen soll.

Sobald die Deepfake-Technologie ein gewisses Maß an Realismus erreicht hat, glauben Experten, dass sie eine neue Ära von Fehlinformationen, Belästigungen und beschissenen Filmneustarts einleiten wird. Aber es scheint, dass “tiefe Stimme” tech hat bereits die große Zeit erreicht.

Bereits im Jahr 2020 hat ein Bankmanager in den V.A.E. erhielt einen Anruf vom Direktor eines großen Unternehmens. Laut dem Direktor war eine große Akquisition in Arbeit, daher brauchte er die Bank, um Überweisungen in Höhe von 35 Millionen US-Dollar auf mehrere US-Konten zu genehmigen. Der Direktor wies auf E-Mails eines Anwalts hin, um die Überweisung zu bestätigen, und da alles echt aussah, setzte der Bankmanager es durch.

Aber der “Direktor” dieser Firma war eigentlich eine “tiefe Stimme” Algorithmus, der darauf trainiert ist, wie sein Opfer zu klingen. Die Vereinigten Arabischen Emirate sucht nun US-Hilfe bei der Wiederbeschaffung der verlorenen Gelder, die von einer Gruppe von 17 oder mehr Dieben auf Konten rund um den Globus geschmuggelt wurden.

Dies ist nicht der erste Audio-Deepfake-Überfall, aber es ist wieder &#8217 ; ist bisher das erfolgreichste. Ähnliche Operationen werden in Zukunft stattfinden, wahrscheinlich in viel größerem Maßstab. Was können Unternehmen und Regierungen also tun, um die Bedrohung einzudämmen? Nun, es ist schwer zu sagen.

Da Deepfakes ständig verbessert werden, werden sie irgendwann zu überzeugend, um von Menschen richtig erkannt zu werden. Aber trainierte KI kann Deepfakes erkennen, da geklonte Gesichter und Stimmen oft kleine Artefakte und Fehler enthalten, wie digitales Rauschen oder kleine Geräusche, die für Menschen unmöglich sind.

Quelle: Forbes