Terwijl deepfakes floreren, worstelen landen met reactie

0
55

Geschreven door Tiffany Hsu

Deepfake-technologie – software waarmee mensen gezichten, stemmen en andere kenmerken kunnen verwisselen om digitale vervalsingen te creëren – is de afgelopen jaren gebruikt om een ​​synthetische vervanging te maken van Elon Musk die een cryptocurrency-zwendel, om meer dan 100.000 vrouwen op Telegram digitaal “uit te kleden” en om miljoenen dollars van bedrijven te stelen door de stemmen van hun leidinggevenden aan de telefoon na te bootsen.

In het grootste deel van de wereld kunnen autoriteiten er niet veel aan doen. Zelfs nu de software steeds geavanceerder en toegankelijker wordt, bestaan ​​er weinig wetten om de verspreiding ervan te beheersen.

China hoopt de uitzondering te zijn. Deze maand heeft het land uitgebreide regels aangenomen die vereisen dat gemanipuleerd materiaal de toestemming van de proefpersoon heeft en digitale handtekeningen of watermerken draagt, en dat deepfake-serviceproviders manieren bieden om 'geruchten te weerleggen'.

Alleen abonnees VerhalenAlles bekijken

De terughoudendheid van Duitsland ten opzichte van tanks komt voort uit zijn geschiedenis en zijn politiek< /figuur>Upendra Singh Kushwaha en Nitish Kumar: een lange haat-liefdeverhouding

Voor technologiebedrijven leveren jaren van gemakkelijk geld op in moeilijke tijdenDelhi Confidential: Bollywood-sterren prijzen PM voor het benoemen van Andaman & Nico…Nieuwjaarspromotiecode SD25 toepassen

Maar China staat voor dezelfde hindernissen die andere pogingen om deepfakes te beheersen hebben belemmerd: de ergste misbruikers van de technologie zijn meestal het moeilijkst te vangen, opereren anoniem, passen zich snel aan en delen hun synthetische creaties via grenzeloze online platforms. De stap van China heeft ook een andere reden aan het licht gebracht waarom maar weinig landen regels hebben aangenomen: veel mensen maken zich zorgen dat de regering de regels zou kunnen gebruiken om de vrijheid van meningsuiting in te perken.

Maar simpelweg door door te gaan met haar mandaten, zeiden technische experts, Beijing zou kunnen beïnvloeden hoe andere regeringen omgaan met machine learning en kunstmatige intelligentie die deepfake-technologie aandrijven. Met een beperkt precedent in het veld, zoeken wetgevers over de hele wereld naar testcases om na te bootsen of te verwerpen.

“De AI-scene is een interessante plaats voor de wereldpolitiek, omdat landen met elkaar concurreren over wie de toon gaat zetten”, zegt Ravit Dotan, een postdoctoraal onderzoeker die het Collaborative AI Responsibility Lab leidt aan de Universiteit van Pittsburgh. “We weten dat er wetten komen, maar we weten nog niet wat ze zijn, dus er is veel onvoorspelbaarheid.”

Advertentie

Deepfakes zijn veelbelovend in veel industrieën. Vorig jaar blies de Nederlandse politie een cold case uit 2003 nieuw leven in door een digitale avatar van het 13-jarige moordslachtoffer te maken en beelden te publiceren waarop hij tegenwoordig door een groep van zijn familie en vrienden loopt.

De technologie wordt ook gebruikt voor parodie en satire, voor online shoppers die kleding passen in virtuele paskamers, voor dynamische museumdiorama's en voor acteurs die meerdere talen willen spreken in internationale filmreleases. Onderzoekers van het Massachusetts Institute of Technology Media Lab en UNICEF gebruikten soortgelijke technieken om empathie te bestuderen door beelden van Noord-Amerikaanse en Europese steden om te zetten in de door de strijd getekende landschappen veroorzaakt door de Syrische oorlog.

Maar ook problematische toepassingen zijn er in overvloed. Juridische experts maken zich zorgen dat deepfakes kunnen worden misbruikt om het vertrouwen in bewakingsvideo's, lichaamscamera's en ander bewijsmateriaal te ondermijnen. (Een bewerkte opname die in 2019 werd ingediend in een Britse voogdijzaak leek te laten zien dat een ouder gewelddadige bedreigingen uitte, volgens de advocaat van de ouder.)

Advertentie

Digitale vervalsingen kunnen politieagenten in diskrediet brengen of aanzetten tot geweld, of hen op wilde ganzenjacht sturen. Het Department of Homeland Security heeft ook risico's vastgesteld, waaronder cyberpesten, chantage, aandelenmanipulatie en politieke instabiliteit.

Sommige experts voorspellen dat maar liefst 90% van de online-inhoud binnen een paar jaar synthetisch kan worden gegenereerd.

p>

Het toenemende aantal deepfakes zou kunnen leiden tot een situatie waarin “burgers niet langer een gedeelde realiteit hebben, of maatschappelijke verwarring kan creëren over welke informatiebronnen betrouwbaar zijn; een situatie die soms wordt aangeduid als 'informatie-apocalyps' of 'realiteitsapathie'”, schreef de Europese wetshandhavingsinstantie Europol vorig jaar in een rapport.

Britse functionarissen noemden vorig jaar bedreigingen zoals een website die “vrijwel stript vrouwen naakt” en dat werd in de eerste acht maanden van 2021 38 miljoen keer bezocht. Maar daar en in de Europese Unie moeten voorstellen om vangrails voor de technologie op te zetten nog geen wet worden.

Pogingen in de Verenigde Staten om een ​​federale taskforce op te richten om deepfake-technologie te onderzoeken, zijn tot stilstand gekomen. Afgevaardigde Yvette D. Clarke, D-N.Y., stelde in 2019 en opnieuw in 2021 een wetsvoorstel voor – het verdedigen van elke persoon tegen valse schijn door exploitatie onder de verantwoordingswet te houden – waarover nog moet worden gestemd. Ze zei dat ze van plan was het wetsvoorstel dit jaar opnieuw in te voeren.

Advertentie

Clarke zei dat haar wetsvoorstel, dat deepfakes zou vereisen om watermerken of identificerende labels te dragen, “een beschermende maatregel” was. Ze beschreef de nieuwe Chinese regels daarentegen als “meer een controlemechanisme”.

“Veel van de geavanceerde maatschappelijke organisaties erkennen hoe dit kan worden bewapend en destructief,” zei ze, eraan toevoegend dat de Verenigde Staten brutaler zouden moeten zijn in het bepalen van hun eigen normen in plaats van achter een andere koploper aan te lopen.

Advertentie

“ We willen helemaal niet dat de Chinezen onze lunch opeten in de technische ruimte,' zei Clarke. “We willen de basis kunnen leggen voor onze verwachtingen rond de technologie-industrie, rond consumentenbescherming in die ruimte.”

Maar wetshandhavers hebben gezegd dat de industrie nog steeds niet in staat is om deepfakes op te sporen en moeite heeft om kwaadaardig gebruik van de technologie te beheersen. Een advocaat in Californië schreef in 2021 in een juridisch tijdschrift dat bepaalde deepfake-regels “een bijna onoverkomelijk haalbaarheidsprobleem” hadden en “functioneel niet afdwingbaar” waren omdat (meestal anonieme) misbruikers gemakkelijk hun sporen kunnen uitwissen.

Advertentie

De regels die er in de Verenigde Staten wel zijn, zijn grotendeels gericht op politieke of pornografische deepfakes. Marc Berman, een democraat in de staatsvergadering van Californië die delen van Silicon Valley vertegenwoordigt en dergelijke wetgeving heeft gesponsord, zei dat hij niet op de hoogte was van enige poging om zijn wetten af ​​te dwingen via rechtszaken of boetes. Maar hij zei dat, uit eerbied voor een van zijn wetten, een deepfaking-app de mogelijkheid had verwijderd om president Donald Trump na te bootsen vóór de verkiezingen van 2020.

Slechts een handvol andere staten, waaronder New York, beperken deepfake pornografie. Terwijl hij zich kandidaat stelde voor herverkiezing in 2019, zei de burgemeester van Houston dat een kritische advertentie van een medekandidaat in strijd was met een wet in Texas die bepaalde misleidende politieke deepfakes verbiedt.

“De helft van de waarde zorgt ervoor dat meer mensen een beetje meer sceptisch over wat ze zien op sociale mediaplatforms en moedigt mensen aan om niet alles voor waar aan te nemen,' zei Berman.

Maar hoewel technologie-experts, wetgevers en slachtoffers pleiten voor sterkere bescherming, dringen ze ook aan op voorzichtigheid. Deepfake-wetten, zeiden ze, lopen het risico zowel overdreven als tandeloos te zijn. Het dwingen van labels of disclaimers op deepfakes die zijn ontworpen als geldig commentaar op politiek of cultuur, kan de inhoud ook minder betrouwbaar doen lijken, voegde ze eraan toe.

Digitale rechtengroepen zoals de Electronic Frontier Foundation dringen er bij wetgevers op aan om deepfake-politie op te geven aan technologiebedrijven, of om een ​​bestaand wettelijk kader te gebruiken dat zaken als fraude, inbreuk op het auteursrecht, obsceniteit en laster aanpakt.

“Dat is de beste remedie tegen schade, in plaats van de inmenging van de overheid, die bij de uitvoering ervan bijna altijd materiaal zal vastleggen dat niet schadelijk is, dat mensen de koude rillingen geeft van legitieme, productieve spraak”, zegt David Greene, een advocaat voor burgerlijke vrijheden voor de Stichting Electronic Frontier.

Enkele maanden geleden begon Google mensen te verbieden zijn Colaboratory-platform, een tool voor gegevensanalyse, te gebruiken om AI-systemen te trainen om deepfakes te genereren. In de herfst lanceerde het bedrijf achter Stable Diffusion, een tool voor het genereren van afbeeldingen, een update die gebruikers verlamt die naakt- en pornografische inhoud proberen te maken, aldus The Verge. Meta, TikTok, YouTube en Reddit verbieden deepfakes die misleidend bedoeld zijn.

Maar wetten of verboden kunnen moeite hebben om een ​​technologie te bevatten die is ontworpen om zich voortdurend aan te passen en te verbeteren. Vorig jaar demonstreerden onderzoekers van de RAND Corp. hoe moeilijk deepfakes kunnen zijn om te identificeren wanneer ze een reeks video's aan meer dan 3.000 proefpersonen lieten zien en hen vroegen om de gemanipuleerde video's te identificeren (zoals een deepfake van klimaatactiviste Greta Thunberg het bestaan ​​van klimaatverandering ontkennen).

De groep had het meer dan een derde van de tijd bij het verkeerde eind. Zelfs een subgroep van enkele tientallen studenten die machine learning studeerden aan de Carnegie Mellon University had meer dan 20% van de tijd ongelijk.

Initiatieven van bedrijven zoals Microsoft en Adobe proberen nu media te authenticeren en moderatietechnologie te trainen om de inconsistenties die synthetische inhoud markeren. Maar ze hebben een constante strijd om deepfake-makers te overtreffen, die vaak nieuwe manieren ontdekken om defecten te herstellen, watermerken te verwijderen en metadata te wijzigen om hun sporen uit te wissen.

“Er is een technologische wapenwedloop gaande tussen deepfake-makers en deepfake-detectoren. ”, zegt Jared Mondschein, een fysisch wetenschapper bij RAND. “Totdat we beginnen met het bedenken van manieren om deepfakes beter op te sporen, zal het heel moeilijk zijn voor welke hoeveelheid wetgeving dan ook om tanden te hebben.”

Dit artikel verscheen oorspronkelijk in The New York Times.

> © IE Online Media Services Pvt Ltd