Des voleurs ont utilisé la technologie vocale Deepfake pour réaliser un braquage de banque de 35 millions de dollars

0
166
Elnur/Shutterstock

Des voleurs ont utilisé un deepfake audio technologie pour cloner la voix d'un homme d'affaires et ordonner un transfert de 35 millions de dollars vers des comptes étrangers, selon un document judiciaire obtenu par Forbes. C'est la “voix profonde” cambriolage jusqu'à présent, même s'il ne s'agit peut-être que d'une petite partie d'une tendance croissante.

La technologie Deepfake est assez bien connue à ce stade. Fondamentalement, les gens entraînent une IA pour recréer le visage de quelqu'un, généralement le visage d'un acteur ou d'une autre personne bien connue. L'IA peut ensuite animer et coller ce visage sur une vidéo de référence, insérant ainsi le sujet cloné dans une scène.

Mais vous ne pouvez pas simplement coller quelqu'un dans une vidéo sans recréer sa voix. Et c'est là que les deepfakes audio entrent en jeu. Vous entraînez une IA à reproduire la voix de quelqu'un, puis dites à l'IA ce qu'elle doit dire avec la voix de cette personne.

Une fois que la technologie deepfake atteindra un certain niveau de réalisme, les experts pensent qu'elle entraînera une nouvelle ère de désinformation, de harcèlement et de redémarrages de films de merde. Mais il semble que “voix profonde” la technologie a déjà atteint le grand moment.

En 2020, un directeur de banque aux Émirats arabes unis. reçu un appel téléphonique du directeur d'une grande entreprise. Une grosse acquisition était en préparation, selon le directeur, il avait donc besoin que la banque autorise 35 millions de dollars de virements sur plusieurs comptes américains. Le directeur a indiqué les e-mails d'un avocat pour confirmer le transfert, et comme tout semblait légitime, le directeur de la banque l'a fait passer.

Mais le “directeur” de cette société était en fait une “voix profonde” algorithme formé pour ressembler à sa victime. Les Emirats Arabes Unis cherche maintenant l'aide des États-Unis pour récupérer les fonds perdus, qui ont été passés en contrebande sur des comptes dans le monde entier par un groupe de 17 voleurs ou plus.

Ce n'est pas le premier casse audio deepfake, mais encore une fois, il&#8217 ;s le plus réussi jusqu'à présent. Des opérations similaires auront lieu à l'avenir, probablement à une échelle beaucoup plus grande. Alors, que peuvent faire les entreprises et les gouvernements pour atténuer la menace ? Eh bien, c'est difficile à dire.

Parce que les deepfakes s'améliorent constamment, ils finiront par devenir trop convaincants pour que les humains les identifient correctement. Mais l'IA entraînée peut être capable de détecter les deepfakes, car les visages et les voix clonés contiennent souvent de petits artefacts et des erreurs, tels que du bruit numérique ou de petits sons impossibles à produire pour les humains.

Source : Forbes