Hur Deepfakes driver en ny typ av cyberbrott

0
148
Mihai Surdu/Shutterstock.com

Att göra deepfakes blir lättare och de är mer övertygande än någonsin. Cyberbrottslingar använder video- och ljuddepfakes för att pressa ut pengar från offren genom att lägga till en trovärdig & # 8220; falsk äkthet & # 8221; till deras bedrägerier.

Redigering av folk & # 8217; Tro

Ända sedan den första personen sa & # 8220; kameran ljuger aldrig, & # 8221; det har varit människor ute för att bevisa annat. Kreativa fotografer i slutet av 1800-talet använde enkla knep för att skapa falska bilder.

Personen i en flaska & # 8221; gag njöt av sitt ögonblick av popularitet. Ta ett fotografi av dig själv i en lämplig pose. Utveckla och skriva ut fotografiet i lämplig storlek. Klipp ut din bild, knäpp den i en glasflaska och ta ett nytt fotografi av dig själv som håller flaskan. Hej presto, du har en bild av dig själv som håller en flaska som innehåller en miniatyrversion av dig själv.

Naturligtvis kan vi idag göra den här typen av saker med Photoshop eller GIMP. Och vi är medvetna om att experter kan skapa bilder som ser helt äkta ut och ändå innehåller omöjliga element med tillräckliga färdigheter och kreativitet. Paradoxalt nog kan den medvetenheten leda till att vi tvivlar på äkta fotografier. En häpnadsväckande bild som med rena fångar fångar en förekomst en gång i livet hälsas alltid av frågan & # 8220; Är det verkligt? & # 8221;

Annons

Ett fotografi av en miniatyr person i en flaska är uppenbarligen fejkad. Men byt ett fotografi så att det visar något som kan vara sant och också ser verkligt ut, och vissa tror det.

Det handlar inte längre om visuella knep. Det är vapenbildande bilder. Det är socialteknik.

RELATERAD: Socialteknikens många ansikten

Moving Pictures and Talkies

Så snart filmbilder blev ett socialt spektakel använde banbrytande filmskapare specialeffekter och tricks för att lösa två problem. Den ena filmade något som verkligen kunde hända men som var opraktiskt att filma, och den andra filmade något som helt enkelt var omöjligt. Lösningen på detta födde den massiva specialeffektindustrin som vi har idag.

Tillägget av ljud och dialog såg bortgången av den tysta filmen och uppkomsten av talkies. Några tysta stjärnor gjorde inte övergången. Deras röst var inte rätt, eller de kunde inte leverera linjer med övertygelse och timing. Tills överdubbning blev en sak fanns det ingen annan lösning än att kasta någon annan.

Idag manipulerar vi också skådespelarens röster. Sjöng George Clooney verkligen i O Brother, Where Art Thou? Nej, det var Dan Tyminskis röst, datorläppssynkroniserad med George Cloonys rörliga bild.

Systemen som kan göra denna typ av video- och ljudmanipulation är stora och dyra , och de behöver experter för att driva dem. Men övertygande slutresultat kan uppnås med lättillgänglig och relativt enkel programvara som körs på rimlig datorhårdvara.

Video och ljud kanske inte är av Hollywood-kvalitet, men det är verkligen tillräckligt bra för att tillåt cyberbrottslingar att lägga till falska bilder, video och ljud till sin vapenarsenal.

Deepfakes

Termen deepfake myntades för att beskriva digitala bilder som manipuleras så att någon i videon bär en annan persons ansikte helt. Den & # 8220; djupa & # 8221; en del av namnet kommer från & # 8220; djupinlärning & # 8221 ;, ett av maskininlärningsfälten för artificiell intelligens. Maskininlärning använder specialalgoritmer och mycket data för att träna artificiella neurala nätverk för att uppnå ett mål. Ju mer data du behöver träna systemet med, desto bättre blir resultaten.

Annons

Ge den tillräckligt många fotografier av någon och ett djupt inlärningssystem kommer att förstå personens fysiognomi & # 8217; s ansikte så bra att det kan räkna ut hur det skulle se ut som att visa något uttryck, från vilken vinkel som helst. Det kan sedan skapa bilder av personens ansikte som matchar alla personens uttryck och huvudpositioner i videon.

När dessa bilder sätts in i videon matchar det nya ansiktet perfekt med videon. Eftersom de artificiellt skapade ansiktsuttrycken, läppsynkroniseringen och huvudrörelserna är desamma som de som den ursprungliga personen bär när den riktiga videon spelades in, kan resultatet bli en mycket övertygande falskhet.

RELATERAD: Vad är en djupfalsa och ska jag vara bekymrad?

Detta gäller särskilt när de två ansiktsformerna liknar varandra. En välkänd deepfake kartlägger Lynda Carters ansikte på Gal Gadots kropp och slår samman två versioner av Wonder Woman. Andra högprofilerade exempel presenterade Barack Obama och Tom Cruise. Du hittar dem & # 8212; och många andra exempel & # 8212; på YouTube.

Samma maskininlärningstekniker kan tillämpas på ljud. Med tillräckliga röstprover kan du träna ett artificiellt neuralt nätverk för att producera högkvalitativt ljudutgång som replikerar den samplade rösten. Och du kan få det att säga vad du vill. Vill du höra Notorious B.I.G. rappar några av H. P. Lovecrafts eldtrich-skräck? Återigen, YouTube är platsen. Egentligen kommer du att höra något som låter mycket som Notorious B.I.G. rappar Lovecraft.

Annons

Utöver galna mash-ups och sommar-blockbusters hittar dessa tekniker funktionella användningsområden någon annanstans. Descript är en ljud- och videoredigerare som skapar ett textavskrift av din inspelning. Redigera textdokumentet och ändringarna görs i inspelningen. Om du inte gillar det sätt du sa något på, redigerar du bara texten. Descript syntetiserar allt ljud som saknas från din egen röst. Det kan syntetisera en röst från så lite som en minut med originalinspelning.

Den koreanska TV-kanalen MBN har skapat en djupfake av Kim Joo-Ha, deras nyhetsankare. Om en berättelse som vanligtvis skulle hanteras av Kim Joo-Ha går sönder när hon inte är i studion, levererar deepfaken den.

RELATERAD: 3 Enkla appar för att fördjupa dig i videor och GIF

Cyberbrotten har redan börjat

Cyberbrottslingar hoppar alltid upp på alla vagnar som de kan använda för att förbättra eller modernisera sina attacker. Ljudfalsar blir så bra att det krävs en spektrumanalysator för att definitivt identifiera förfalskningar och AI-system har utvecklats för att identifiera djupa falska videor. Om du manipulerar bilder kan du beväpna dem, föreställ dig vad du kan göra med ljud- och videofalsar som är tillräckligt bra för att lura de flesta.

Brott med falska bilder och ljud har redan hänt. Experter förutspår att nästa våg av djupt falsk cyberbrott kommer att involvera video. Arbetet hemifrån, videosamtal-laddat & # 8220; nytt normalt & # 8221; kan mycket väl ha inlett den nya eran av djupt falsk cyberbrott.

Nätfiskeattacker

En gammal phishing-e-postattack innebär att du skickar ett e-postmeddelande till offret och hävdar att du har en video av dem i en kompromissande eller pinsam position. Om inte betalning tas emot i Bitcoin kommer filmen att skickas till deras vänner och kollegor. Rädd att det kan finnas en sådan video, betalar vissa människor lösen.

Den djupa falska varianten av denna attack innebär att bifoga några bilder till e-postmeddelandet. De påstås vara sprängda stillbilder från videon. Offrets ansikte som fyller större delen av ramen har införts digitalt i bilderna. Till oinvigde gör de utpressningshotet mer övertygande.

När djupfalsystem blir effektivare kan de tränas med allt mindre datamängder. Sociala mediekonton kan ofta ge tillräckligt med bilder att använda som inlärningsdatabas.

Vishing Attacks

E-phishing-attacker använder olika tekniker för att skapa en känsla av brådskande att försöka få folk att agera i brådska, eller de spelar på en anställds önskan att ses som hjälpsam och effektiv. Phishing-attacker som genomförs via telefon kallas vishing-attacker. De använder samma tekniker för socialteknik.

Annons

En advokat i USA fick ett telefonsamtal från sin son, som uppenbarligen var orolig. Han sa att han hade träffat en gravid kvinna i en bilolycka och var nu i förvar. Han sa till sin far att förvänta sig ett samtal från en allmän försvarare om att ordna 15 000 dollar i borgen.

Samtalet kom inte från hans son, det var bedragare som använde ett text-till-tal-system som de hade tränat med hjälp av ljudklipp från sin son för att skapa en djupfake för ljud. Advokaten ifrågasatte det inte ett ögonblick. När det gäller honom pratade han med sin egen son. När han väntade på att den offentliga försvararen skulle ringa, tog han sig tid att ringa sin svärdotter och hans sons arbetsplats för att berätta för dem om olyckan. Word nådde son som ringde för att berätta för honom att det var en bluff.

En VD i Storbritannien var inte så lycklig. Han fick ett spjutfiske-e-postmeddelande som påstås från verkställande direktören för företagets tyska moderbolag. Detta begärde en betalning på 243 000 £ (cirka 335 000 $) till en ungersk leverantör inom en timme. Det följdes omedelbart av ett telefonsamtal från verkställande direktören som bekräftade att betalningen var brådskande och borde göras omedelbart.

Offret säger att han inte bara kände igen sin chef & # 8217; röst och lätt tysk accent men han kände också till kadens och noggrann förordning. Så han gjorde gärna betalningen.

RELATERAD: Audio Deepfakes: Kan någon berätta om de är falska?

Motåtgärder

Det potentiella hotet om djupa förfalskningar har erkänts av den amerikanska regeringen. The Malicious Deep Fake Prohibition Act of 2018 och Identifying Outputs of Generative Adversarial Networks Act eller IOGAN Act skapades som ett direkt svar på hoten från deepfakes.

Annons

Företag måste lägga till diskussioner om deepfakes. till deras utbildning i cybersäkerhetsmedvetenhet. Träning för cybermedvetenhet bör vara en del av en ny start och bör upprepas regelbundet för all personal. attacker. Enkla procedurer kan hjälpa till att fånga många av dessa.

  • Ingen överföring av ekonomi bör göras enbart efter mottagandet av ett e-postmeddelande.
  • Ett uppföljande telefonsamtal bör göras från mottagaren av e-postmeddelandet till avsändaren, inte från avsändaren till mottagaren.
  • Utmaningsfraser kan införlivas som en extern angripare inte skulle veta.
  • Korsreferens och dubbel- kontrollera allt som är ovanligt.