När deepfakes florerar, kämpar länder med svar

0
66

Skrivet av Tiffany Hsu

Deepfake-teknik – programvara som låter människor byta ansikten, röster och andra egenskaper för att skapa digitala förfalskningar – har använts under de senaste åren för att göra en syntetisk ersättning för Elon Musk som shilled ett bedrägeri med kryptovaluta, för att digitalt “klä av” mer än 100 000 kvinnor på Telegram och att stjäla miljontals dollar från företag genom att härma deras chefers röster i telefonen.

I större delen av världen kan myndigheterna inte göra mycket åt det. Även när programvaran blir mer sofistikerad och tillgänglig finns det få lagar för att hantera dess spridning.

Kina hoppas bli undantaget. Den här månaden antog landet omfattande regler som kräver att manipulerat material har försökspersonens samtycke och bär digitala signaturer eller vattenstämplar, och att deepfake-tjänsteleverantörer erbjuder sätt att “motbevisa rykten.”

Berättelser endast för prenumeranter Visa alla

Delhi Confidential: No Run Of Millet Fare

UPSC-nyckel – 24 januari 2023: Vet om Netaji Subhas Chandra Bose, Trans …

Tysklands motvilja mot stridsvagnar härrör från dess historia och dess politik

Upendra Singh Kushwaha och Nitish Kumar: Ett långt kärlek-hatförhållande Ansök nyårskampanjkod SD25

Men Kina står inför samma hinder som har hindrat andra ansträngningar för att styra djupförfalskningar: De värsta missbrukarna av tekniken tenderar att vara svårast att fånga, arbeta anonymt, anpassa sig snabbt och dela sina syntetiska skapelser genom gränslösa onlineplattformar. Kinas drag har också belyst en annan anledning till att få länder har antagit regler: Många människor oroar sig för att regeringen skulle kunna använda reglerna för att begränsa yttrandefriheten.

Men helt enkelt genom att gå vidare med sina mandat, sa tekniska experter i Peking. kan påverka hur andra regeringar hanterar maskininlärning och artificiell intelligens som driver deepfake-teknologin. Med begränsad prejudikat på området letar lagstiftare runt om i världen efter testfall att efterlikna eller förkasta.

“AI-scenen är en intressant plats för global politik, eftersom länder konkurrerar med varandra om vem som ska sätta tonen”, säger Ravit Dotan, en postdoktoral forskare som driver Collaborative AI Responsibility Lab vid University of Pittsburgh. “Vi vet att lagar kommer, men vi vet inte vad de är än, så det finns mycket oförutsägbarhet.”

Annons

Deepfakes lovar mycket i många branscher. Förra året återupplivade den nederländska polisen ett kallt fall från 2003 genom att skapa en digital avatar av det 13-åriga mordoffret och publicera bilder av honom när han gick genom en grupp av sin familj och vänner i dag.

Tekniken används också för parodi och satir, för onlineshoppare som provar kläder i virtuella provrum, för dynamiska museumsdioramor och för skådespelare som hoppas kunna tala flera språk i internationella filmpremiärer. Forskare vid Massachusetts Institute of Technology Media Lab och UNICEF använde liknande tekniker för att studera empati genom att omvandla bilder av nordamerikanska och europeiska städer till stridsärrade landskap orsakade av Syrienkriget.

Men problematiska applikationer finns det också gott om. Juridiska experter oroar sig för att deepfakes kan missbrukas för att urholka förtroendet för övervakningsvideor, kroppskameror och andra bevis. (En protokollförd inspelning som lämnades in i ett brittiskt mål om vårdnad av barn 2019 verkade visa en förälder som hotade med våld, enligt förälderns advokat.)

Annons

Digitala förfalskningar kan misskreditera eller uppmuntra till våld mot poliser, eller skicka dem på vilda jakter. Department of Homeland Security har också identifierat risker inklusive nätmobbning, utpressning, aktiemanipulation och politisk instabilitet.

Vissa experter förutspår att så mycket som 90 % av onlineinnehållet skulle kunna genereras syntetiskt inom några år.

p>

Den ökande volymen av deepfakes kan leda till en situation där “medborgare inte längre har en delad verklighet, eller kan skapa samhällelig förvirring om vilka informationskällor som är tillförlitliga; en situation som ibland kallas “informationsapokalyps” eller “verklighetsapati”, skrev den europeiska brottsbekämpande myndigheten Europol i en rapport förra året.

Brittiska tjänstemän hänvisade förra året till hot som en webbplats som “praktiskt sett strips women naked” och som besöktes 38 miljoner gånger under de första åtta månaderna 2021. Men där och i Europeiska unionen har förslag om att sätta skyddsräcken för tekniken ännu inte blivit lag.

Försök i USA att skapa en federal arbetsgrupp för att undersöka deepfake-teknik har avstannat. Rep Yvette D. Clarke, D-N.Y., föreslog ett lagförslag 2019 och igen 2021 – att försvara varje person från falskt utseende genom att hålla exploateringen föremål för ansvarsskyldighet – som ännu inte har kommit till omröstning. Hon sa att hon planerade att återinföra lagförslaget i år.

Annons

Clarke sa att hennes lagförslag, som skulle kräva djupförfalskningar för att bära vattenstämplar eller identifierande etiketter, var “en skyddsåtgärd”. Däremot beskrev hon de nya kinesiska reglerna som “mer av en kontrollmekanism.”

“Många av de sofistikerade civila samhällena inser hur detta kan beväpnas och destruktivt”, sa hon och tillade att USA borde vara djärvare när det gäller att sätta sina egna standarder snarare än att följa efter en annan föregångare.

Annons

” Vi vill inte att kineserna äter vår lunch i det tekniska området överhuvudtaget, säger Clarke. “Vi vill kunna sätta grundlinjen för våra förväntningar kring teknikindustrin, kring konsumentskydd i det området.”

Men brottsbekämpande tjänstemän har sagt att branschen fortfarande inte kan upptäcka deepfakes och kämpar för att hantera skadlig användning av tekniken. En advokat i Kalifornien skrev i en juridiktidning 2021 att vissa djupfalska regler hade “ett nästan oöverstigligt genomförbarhetsproblem” och var “funktionellt omöjligt att verkställa” eftersom (vanligtvis anonyma) missbrukare lätt kan täcka sina spår.

Annons

De regler som finns i USA är till stor del inriktade på politiska eller pornografiska deepfakes. Marc Berman, en demokrat i Kaliforniens delstatsförsamling som representerar delar av Silicon Valley och har sponsrat sådan lagstiftning, sa att han inte var medveten om några försök att genomdriva hans lagar genom stämningar eller böter. Men han sa att, i respekt för en av hans lagar, hade en deepfaking-app tagit bort möjligheten att efterlikna president Donald Trump före valet 2020.

Endast en handfull andra stater, inklusive New York, begränsar djupfalsk pornografi. Medan han ställde upp för omval 2019 sa Houstons borgmästare att en kritisk annons från en medkandidat bröt mot en lag i Texas som förbjuder vissa vilseledande politiska djupförfalskningar.

“Hälften av värdet gör att fler människor blir lite mer skeptiska till vad de ser på sociala medieplattformar och uppmuntra folk att inte ta allt till nominellt värde”, sa Berman.

Men även när teknikexperter, lagstiftare och offer kräver starkare skydd, manar de också till försiktighet. Deepfake lagar, sa de, riskerar att bli både överdrivna men också tandlösa. Att tvinga fram etiketter eller ansvarsfriskrivningar på djupförfalskningar utformade som giltiga kommentarer om politik eller kultur kan också få innehållet att framstå som mindre pålitligt, tillade de.

Digitalrättighetsgrupper som Electronic Frontier Foundation pressar lagstiftare att avstå från deepfake-polisen för att teknikföretag, eller att använda ett befintligt rättsligt ramverk som tar upp frågor som bedrägeri, upphovsrättsintrång, obscenitet och ärekränkning.

“Det är det bästa botemedlet mot skador, snarare än statlig inblandning, som i sin implementering nästan alltid kommer att fånga upp material som inte är skadligt, som kyler människor från legitimt, produktivt tal”, säger David Greene, medborgarrättsadvokat för Electronic Frontier Foundation.

För flera månader sedan började Google förbjuda människor från att använda sin Colaboratory-plattform, ett dataanalysverktyg, för att träna AI-system för att generera djupförfalskningar. I höstas lanserade företaget bakom Stable Diffusion, ett bildgenererande verktyg, en uppdatering som hindrar användare som försöker skapa naken och pornografiskt innehåll, enligt The Verge. Meta, TikTok, YouTube och Reddit förbjuder deepfakes som är avsedda att vara vilseledande.

Men lagar eller förbud kan kämpa för att innehålla en teknik som är utformad för att ständigt anpassa och förbättra. Förra året visade forskare från RAND Corp. hur svårt deepfakes kan vara att identifiera när de visade en uppsättning videor för mer än 3 000 testpersoner och bad dem att identifiera de som manipulerades (som en deepfake av klimataktivisten Greta Thunberg avfärdar existensen av klimatförändringar).

Gruppen hade fel mer än en tredjedel av gångerna. Till och med en delmängd av flera dussin studenter som studerar maskininlärning vid Carnegie Mellon University hade fel mer än 20 % av gångerna.

Initiativ från företag som Microsoft och Adobe försöker nu autentisera media och träna modereringsteknik för att känna igen de inkonsekvenser som markerar syntetiskt innehåll. Men de är i en ständig kamp för att överträffa deepfake-skapare som ofta upptäcker nya sätt att fixa defekter, ta bort vattenstämplar och ändra metadata för att täcka deras spår.

“Det pågår en teknisk kapprustning mellan deepfake-skapare och deepfake-detektorer. , säger Jared Mondschein, en fysikalisk forskare vid RAND. “Tills vi börjar komma på sätt att bättre upptäcka djupförfalskningar kommer det att vara riktigt svårt för alla lagar att ha några tänder.”

Denna artikel publicerades ursprungligen i The New York Times.

© IE Online Media Services Pvt Ltd