In che modo i deepfake stanno alimentando un nuovo tipo di crimine informatico

0
136
Mihai Surdu/Shutterstock.com< /figure>

Creare deepfake sta diventando più facile e sono più convincenti che mai. I criminali informatici utilizzano deepfake video e audio per estorcere denaro alle vittime aggiungendo una credibile “falsa autenticità” alle loro truffe.

Editing Peoples’ Credenze

Da quando la prima persona ha detto “la telecamera non mente mai,” ci sono state persone che hanno dimostrato il contrario. I fotografi creativi della fine del XIX secolo usavano semplici trucchi per creare immagini false.

La “persona in bottiglia” gag ha goduto del suo momento di popolarità. Scatta una foto di te stesso in una posa adatta. Sviluppa e stampa la fotografia nella dimensione appropriata. Ritaglia la tua immagine, mettila in una bottiglia di vetro e scatta un'altra foto di te stesso mentre tieni la bottiglia. Ehi presto, hai un'immagine di te stesso con in mano una bottiglia contenente una versione in miniatura di te stesso.

Certo, oggi possiamo fare questo genere di cose usando Photoshop o GIMP. E siamo consapevoli che con abilità e creatività sufficienti, gli esperti possono creare immagini che sembrano completamente autentiche e tuttavia contengono elementi impossibili. Paradossalmente, questa consapevolezza può portarci a dubitare delle fotografie autentiche. Un'immagine sorprendente che cattura per puro caso un evento irripetibile è sempre accolta dalla domanda “È reale?”

Pubblicità

Una fotografia di un la persona in miniatura in una bottiglia è ovviamente falsa. Ma cambia una fotografia in modo che mostri qualcosa che potrebbe essere vero e sembri anche reale, e alcune persone ci crederanno.

Non si tratta più di gag visive. È un'immagine armata. È ingegneria sociale.

RELAZIONATO: I molti volti dell'ingegneria sociale

Immagini in movimento e sonori

Non appena il cinema è diventato uno spettacolo sociale, i registi pionieri hanno utilizzato effetti speciali e trucchi per risolvere due problemi. Uno stava filmando qualcosa che poteva davvero accadere ma era poco pratico da filmare, e l'altro stava filmando qualcosa che era semplicemente impossibile. La soluzione a questo ha dato vita alla massiccia industria degli effetti speciali che abbiamo oggi.

L'aggiunta di suoni e dialoghi ha visto la fine del film muto e l'ascesa del sonoro. Alcune star silenziose non hanno effettuato la transizione. La loro voce non era giusta, oppure non riuscivano a pronunciare le battute con convinzione e tempismo. Fino a quando la sovraincisione non è diventata una cosa, non c'era altra soluzione che scegliere qualcun altro.

Oggi, stiamo manipolando anche le voci degli attori. George Clooney ha davvero cantato in Fratello, dove sei? No, quella era la voce di Dan Tyminski, sincronizzata al computer con l'immagine in movimento di George Clooney.

I sistemi in grado di eseguire questo tipo di manipolazione di video e suoni sono grandi e costosi , e hanno bisogno di esperti per guidarli. Ma risultati finali convincenti possono essere ottenuti utilizzando un software facile da ottenere e relativamente semplice che verrà eseguito su un hardware ragionevole.

Il video e l'audio potrebbero non essere di qualità hollywoodiana, ma è certamente abbastanza buono da consentire ai criminali informatici di aggiungere immagini, video e audio falsi al loro arsenale di armi.

Deepfake

Il termine deepfake è stato coniato per descrivere il filmato digitale che viene manipolato in modo che qualcuno nel video indossi interamente il volto di un'altra persona. Il “profondo” parte del nome deriva da “apprendimento profondo”, uno dei campi di apprendimento automatico dell'intelligenza artificiale. L'apprendimento automatico utilizza algoritmi specializzati e molti dati per addestrare reti neurali artificiali per raggiungere un obiettivo. Più dati devi usare per addestrare il sistema, migliori saranno i risultati.

Pubblicità

Forniscigli abbastanza fotografie di qualcuno e un sistema di deep learning arriverà a capire la fisionomia di quella persona 8217;s faccia così bene che può capire come sarebbe la visualizzazione di qualsiasi espressione, da qualsiasi angolazione. Può quindi creare immagini del viso di quella persona che corrispondono a tutte le espressioni e le pose della testa della persona nel video.

Quando queste immagini vengono inserite nel video, il nuovo volto corrisponde perfettamente all'azione del video. Poiché le espressioni facciali, la sincronizzazione delle labbra e i movimenti della testa creati artificialmente sono gli stessi indossati dalla persona originale quando è stato girato il video reale, il risultato può essere un falso molto convincente.

CORRELATO: Che cos'è un deepfake e dovrei preoccuparmi?

Ciò è particolarmente vero quando le due forme del viso sono simili. Un noto deepfake mappa il volto di Lynda Carter sul corpo di Gal Gadot, fondendo due versioni di Wonder Woman. Altri esempi di alto profilo hanno visto Barack Obama e Tom Cruise. Li puoi trovare—e molti altri esempi—su YouTube.

Le stesse tecniche di apprendimento automatico possono essere applicate all'audio. Con campioni vocali sufficienti, puoi addestrare una rete neurale artificiale per produrre un output audio di alta qualità che replica la voce campionata. E puoi fargli dire quello che vuoi. Vuoi ascoltare Notorious B.I.G. rappare alcuni dei terrori eldtrich di H. P. Lovecraft? Ancora una volta, YouTube è il posto giusto. In realtà, sentirai qualcosa che suona molto come Notorious B.I.G. rappando Lovecraft.

Pubblicità

Al di là di folli mash-up e blockbuster estivi, queste tecniche stanno trovando usi funzionali altrove. Descript è un editor di suoni e video che crea una trascrizione di testo della tua registrazione. Modifica il documento di testo e le modifiche vengono apportate alla registrazione. Se non ti piace il modo in cui hai detto qualcosa, modifica semplicemente il testo. Descript sintetizzerà qualsiasi audio mancante dalla tua stessa voce. Può sintetizzare una voce a partire da un minuto di registrazione vocale originale.

Il canale televisivo coreano MBN ha creato un deepfake di Kim Joo-Ha, il loro conduttore di notizie. Se una storia che di solito sarebbe gestita da Kim Joo-Ha si rompe quando lei non è in studio, il deepfake lo consegna.

RELAZIONATO: 3 App facili per falsificare te stesso in video e GIF

I crimini informatici sono già iniziati

I criminali informatici sono sempre pronti a saltare su qualsiasi carrozzone che possono utilizzare per migliorare o modernizzare i loro attacchi. I falsi audio stanno diventando così buoni che è necessario un analizzatore di spettro per identificare definitivamente i falsi e sono stati sviluppati sistemi di intelligenza artificiale per identificare i video deepfake. Se manipolare le immagini ti consente di trasformarle in armi, immagina cosa puoi fare con falsi audio e video che sono abbastanza buoni da ingannare la maggior parte delle persone.

I crimini che coinvolgono immagini e audio falsi sono già avvenuti. Gli esperti prevedono che la prossima ondata di crimini informatici deepfake coinvolgerà i video. Il lavoro da casa, carico di videochiamate “nuova normalità” potrebbe aver inaugurato la nuova era del crimine informatico deepfake.

Attacchi di phishing

Un vecchio attacco e-mail di phishing comporta l'invio di un'e-mail alla vittima, sostenendo di avere un video di loro in una posizione compromettente o imbarazzante. A meno che non venga ricevuto il pagamento in Bitcoin, il filmato verrà inviato ai loro amici e colleghi. Per paura che possa esserci un video del genere, alcune persone pagano il riscatto.

La variante deepfake di questo attacco prevede l'allegato di alcune immagini all'e-mail. Si presume che siano fotogrammi ingranditi del video. Il volto della vittima—che riempie la maggior parte del fotogramma—è stato inserito digitalmente nelle immagini. Per chi non lo sapesse, rendono la minaccia di ricatto più avvincente.

Man mano che i sistemi deepfake diventano più efficienti, possono essere addestrati con set di dati sempre più piccoli. Gli account dei social media possono spesso fornire immagini sufficienti da utilizzare come database di apprendimento.

Attacchi Vishing

Gli attacchi di phishing via email utilizzano una varietà di tecniche per generare un senso di urgenza per cercare di convincere le persone ad agire in fretta, o giocano sul desiderio di un dipendente di essere visto come utile ed efficace. Gli attacchi di phishing condotti per telefono sono chiamati attacchi di vishing. Usano le stesse tecniche di ingegneria sociale.

Pubblicità

Un avvocato negli Stati Uniti ha ricevuto una telefonata da suo figlio, che era ovviamente angosciato. Ha detto di aver investito una donna incinta in un incidente automobilistico e ora era in custodia. Ha detto a suo padre di aspettarsi una chiamata da un difensore d'ufficio per organizzare una cauzione di $ 15.000.

La chiamata non proveniva da suo figlio, erano truffatori che utilizzavano un sistema di sintesi vocale che avevano addestrato utilizzando clip audio di suo figlio per creare un deepfake audio. L'avvocato non lo mise in dubbio per un momento. Per quanto lo riguardava, stava parlando con suo figlio. Mentre aspettava la chiamata del difensore d'ufficio, si è preso il tempo di chiamare sua nuora e il posto di lavoro di suo figlio per informarli dell'incidente. La voce ha raggiunto il figlio che ha telefonato per dirgli che era una truffa.

Un CEO nel Regno Unito non è stato così fortunato. Ha ricevuto un'e-mail di spear-phishing presumibilmente dall'amministratore delegato della società madre tedesca dell'azienda. Ciò ha richiesto un pagamento di £ 243.000 (circa $ 335.000) da effettuare a un fornitore ungherese entro un'ora. È stata immediatamente seguita da una telefonata dell'amministratore delegato, che confermava che il pagamento era urgente e doveva essere effettuato immediatamente.

La vittima afferma di non solo aver riconosciuto il suo capo’ voce e lieve accento tedesco ma ne riconobbe anche la cadenza e l'attenta enunciazione. Quindi ha effettuato felicemente il pagamento.

RELAZIONATO: Audio Deepfake: qualcuno può dire se sono falsi?

Contromisure

La potenziale minaccia dei deepfake è stata riconosciuta dal governo degli Stati Uniti. Il Malicious Deep Fake Prohibition Act del 2018 e l'Identifying Outputs of Generative Adversarial Networks Act o IOGAN Act sono stati creati in risposta diretta alle minacce poste dai deepfake.

Pubblicità

Le aziende devono aggiungere discussioni sui deepfake. alla loro formazione sulla consapevolezza della sicurezza informatica. La formazione sulla consapevolezza informatica dovrebbe far parte di un nuovo inizio e dovrebbe essere ripetuta periodicamente per tutto il personale.

Finora, gli attacchi che sono stati visti sono versioni raffinate di phishing e spear-phishing attacchi. Semplici procedure possono aiutare a intrappolare molti di questi.

  • Nessun trasferimento di finanze dovrebbe essere effettuato esclusivamente alla ricezione di un'e-mail.
  • Una telefonata di follow-up dovrebbe essere effettuata da il destinatario dell'e-mail al mittente, non dal mittente al destinatario.
  • È possibile incorporare frasi di sfida che un utente malintenzionato esterno non potrebbe conoscere.
  • Riferimento incrociato e doppio controlla tutto ciò che è fuori dall'ordinario.