Man mano che i deepfake prosperano, i paesi hanno difficoltà a rispondere

0
65

Scritto da Tiffany Hsu

La tecnologia Deepfake, un software che consente alle persone di scambiare volti, voci e altre caratteristiche per creare falsi digitali, è stata utilizzata negli ultimi anni per creare un sostituto sintetico di Elon Musk che una truffa di criptovaluta, per “spogliare” digitalmente più di 100.000 donne su Telegram e per rubare milioni di dollari alle aziende imitando al telefono le voci dei loro dirigenti.

Nella maggior parte del mondo, le autorità non possono fare molto al riguardo. Anche se il software diventa sempre più sofisticato e accessibile, esistono poche leggi per gestirne la diffusione.

La Cina spera di essere l'eccezione. Questo mese, il paese ha adottato norme espansive che richiedono che il materiale manipolato abbia il consenso del soggetto e rechi firme digitali o filigrane, e che i fornitori di servizi di deepfake offrano modi per “smentire le voci”.

Storie riservate agli abbonatiVisualizza tutto

Delhi Confidential: Nessuna tariffa Run Of Millet

Chiave UPSC – 24 gennaio 2023: Conosci Netaji Subhas Chandra Bose, Trans …

La riluttanza della Germania nei confronti dei carri armati deriva dalla sua storia e dalla sua politica

Upendra Singh Kushwaha e Nitish Kumar: una lunga relazione di amore-odioApplica il codice promozionale di Capodanno SD25

Ma la Cina deve affrontare gli stessi ostacoli che hanno ostacolato altri sforzi per governare i deepfake: i peggiori abusatori della tecnologia tendono ad essere i più difficili da catturare, operano in modo anonimo, si adattano rapidamente e condividono le loro creazioni sintetiche attraverso piattaforme online senza confini. La mossa della Cina ha anche evidenziato un altro motivo per cui pochi paesi hanno adottato regole: molte persone temono che il governo possa utilizzare le regole per limitare la libertà di parola.

Ma semplicemente andando avanti con i suoi mandati, hanno detto gli esperti di tecnologia, Pechino potrebbe influenzare il modo in cui altri governi gestiscono l'apprendimento automatico e l'intelligenza artificiale che alimentano la tecnologia deepfake. Con precedenti limitati nel settore, i legislatori di tutto il mondo sono alla ricerca di casi di prova da imitare o rifiutare.

“La scena dell'intelligenza artificiale è un luogo interessante per la politica globale, perché i paesi competono tra loro su chi darà il tono”, ha affermato Ravit Dotan, un ricercatore post-dottorato che gestisce il Collaborative AI Responsibility Lab presso l'Università di Pittsburgh. “Sappiamo che le leggi stanno arrivando, ma non sappiamo ancora quali sono, quindi c'è molta imprevedibilità.”

Pubblicità

I deepfake sono molto promettenti in molti settori. L'anno scorso, la polizia olandese ha rilanciato un caso irrisolto del 2003 creando un avatar digitale della vittima di omicidio di 13 anni e pubblicizzando le riprese di lui che camminava attraverso un gruppo della sua famiglia e dei suoi amici ai giorni nostri.

La tecnologia viene utilizzata anche per la parodia e la satira, per gli acquirenti online che provano i vestiti nei camerini virtuali, per i diorami dinamici dei musei e per gli attori che sperano di parlare più lingue nelle uscite cinematografiche internazionali. I ricercatori del Massachusetts Institute of Technology Media Lab e dell'UNICEF hanno utilizzato tecniche simili per studiare l'empatia trasformando le immagini delle città nordamericane ed europee nei paesaggi segnati dalla battaglia causati dalla guerra in Siria.

Ma anche le applicazioni problematiche sono numerose. Gli esperti legali temono che i deepfake possano essere utilizzati in modo improprio per erodere la fiducia nei video di sorveglianza, nelle telecamere del corpo e in altre prove. (Secondo l'avvocato del genitore, una registrazione falsificata presentata in un caso di custodia dei figli in Gran Bretagna nel 2019 sembrava mostrare un genitore che faceva minacce violente.)

Pubblicità

I falsi digitali potrebbero screditare o incitare alla violenza contro gli agenti di polizia o mandarli a inseguimenti selvaggi. Il Department of Homeland Security ha anche identificato rischi tra cui cyberbullismo, ricatto, manipolazione delle scorte e instabilità politica.

Alcuni esperti prevedono che fino al 90% dei contenuti online potrebbe essere generato sinteticamente entro pochi anni.

p>

Il volume crescente di deepfake potrebbe portare a una situazione in cui “i cittadini non hanno più una realtà condivisa o potrebbero creare confusione nella società su quali fonti di informazioni siano affidabili; una situazione a volte definita “apocalisse dell'informazione” o “apatia della realtà””, ha scritto l'anno scorso l'agenzia di polizia europea Europol in un rapporto.

I funzionari britannici lo scorso anno hanno citato minacce come un sito web che “praticamente spoglia le donne nude” e che è stata visitata 38 milioni di volte nei primi otto mesi del 2021. Ma lì e nell'Unione Europea, le proposte per stabilire barriere per la tecnologia devono ancora diventare legge.

I tentativi negli Stati Uniti di creare una task force federale per esaminare la tecnologia deepfake si sono bloccati. La rappresentante Yvette D. Clarke, D-N.Y., ha proposto un disegno di legge nel 2019 e di nuovo nel 2021 – il Defending Each and Every Person from False Appearances by Keeping Exploitation Subject to Accountability Act – che deve ancora essere votato. Ha detto che ha pianificato di reintrodurre il disegno di legge quest'anno.

Pubblicità

Clarke ha affermato che il suo disegno di legge, che richiederebbe che i deepfake rechino filigrane o etichette identificative, era “una misura protettiva”. Al contrario, ha descritto le nuove regole cinesi come “più di un meccanismo di controllo”.

“Molte delle sofisticate società civili riconoscono come ciò possa essere utilizzato come arma e distruttivo”, ha affermato, aggiungendo che gli Stati Uniti dovrebbero essere più audaci nello stabilire i propri standard piuttosto che seguire un altro leader.

Pubblicità

” Non vogliamo affatto che i cinesi mangino il nostro pranzo nello spazio tecnologico”, ha detto Clarke. “Vogliamo essere in grado di stabilire la linea di base per le nostre aspettative nel settore tecnologico, in merito alla protezione dei consumatori in tale ambito.”

Ma i funzionari delle forze dell'ordine hanno affermato che l'industria non è ancora in grado di rilevare i deepfake e fatica a gestire gli usi dannosi della tecnologia. Un avvocato della California ha scritto in una rivista legale nel 2021 che alcune regole del deepfake avevano “un problema di fattibilità quasi insormontabile” ed erano “funzionalmente inapplicabili” perché gli autori di abusi (di solito anonimi) possono facilmente coprire le loro tracce.

Pubblicità

Le regole che esistono negli Stati Uniti sono in gran parte mirate a deepfake politici o pornografici. Marc Berman, un democratico dell'Assemblea statale della California che rappresenta parti della Silicon Valley e ha sponsorizzato tale legislazione, ha affermato di non essere a conoscenza di alcun tentativo di far rispettare le sue leggi tramite azioni legali o multe. Ma ha affermato che, in ossequio a una delle sue leggi, un'app di deepfaking aveva rimosso la possibilità di imitare il presidente Donald Trump prima delle elezioni del 2020.

Solo una manciata di altri stati, tra cui New York, limita la pornografia deepfake. Mentre si candidava per la rielezione nel 2019, il sindaco di Houston ha affermato che un annuncio critico di un collega candidato ha violato una legge del Texas che vieta alcuni deepfake politici fuorvianti.

“La metà del valore sta facendo sì che più persone siano un po' di più scettici su ciò che stanno vedendo su una piattaforma di social media e incoraggiano le persone a non prendere tutto per valore nominale”, ha affermato Berman.

Ma anche se gli esperti di tecnologia, i legislatori e le vittime chiedono protezioni più forti, invitano anche alla cautela. Le leggi sui deepfake, hanno detto, rischiano di essere sia eccessive che inefficaci. Forzare etichette o dichiarazioni di non responsabilità su deepfake progettati come commenti validi su politica o cultura potrebbe anche far apparire il contenuto meno affidabile, hanno aggiunto.

I gruppi per i diritti digitali come la Electronic Frontier Foundation stanno spingendo i legislatori ad abbandonare la polizia dei deepfake per aziende tecnologiche o utilizzare un quadro giuridico esistente che affronti problemi come frode, violazione del copyright, oscenità e diffamazione.

“Questo è il miglior rimedio contro i danni, piuttosto che l'interferenza del governo, che nella sua attuazione catturerà quasi sempre materiale che non è dannoso, che gela le persone dal discorso legittimo e produttivo”, ha affermato David Greene, un avvocato per le libertà civili per il Electronic Frontier Foundation.

Diversi mesi fa, Google ha iniziato a vietare alle persone di utilizzare la sua piattaforma Colaboratory, uno strumento di analisi dei dati, per addestrare i sistemi di intelligenza artificiale a generare deepfake. In autunno, la società dietro Stable Diffusion, uno strumento per la generazione di immagini, ha lanciato un aggiornamento che ostacola gli utenti che cercano di creare contenuti nudi e pornografici, secondo The Verge. Meta, TikTok, YouTube e Reddit vietano i deepfake che intendono essere fuorvianti.

Ma leggi o divieti possono avere difficoltà a contenere una tecnologia progettata per adattarsi e migliorare continuamente. L'anno scorso, i ricercatori della RAND Corp. hanno dimostrato quanto possa essere difficile identificare i deepfake quando hanno mostrato una serie di video a più di 3.000 soggetti di prova e hanno chiesto loro di identificare quelli che sono stati manipolati (come un deepfake dell'attivista per il clima Greta Thunberg rinnegando l'esistenza del cambiamento climatico).

Il gruppo ha sbagliato più di un terzo delle volte. Anche un sottogruppo di diverse dozzine di studenti che studiano il machine learning alla Carnegie Mellon University ha sbagliato più del 20% delle volte.

Le iniziative di aziende come Microsoft e Adobe ora cercano di autenticare i media e addestrare la tecnologia di moderazione a riconoscere le incoerenze che contraddistinguono i contenuti sintetici. Ma sono in costante lotta per superare i creatori di deepfake che spesso scoprono nuovi modi per correggere i difetti, rimuovere filigrane e alterare i metadati per coprire le loro tracce.

“C'è una corsa agli armamenti tecnologici tra i creatori di deepfake e i rilevatori di deepfake ”, ha affermato Jared Mondschein, scienziato fisico presso RAND. “Fino a quando non inizieremo a trovare modi per rilevare meglio i deepfake, sarà davvero difficile per qualsiasi tipo di legislazione avere efficacia.”

Questo articolo è apparso originariamente sul New York Times.

© IE Online Media Services Pvt Ltd