Per le elezioni, il 2024 sarà un anno da record. Un numero senza precedenti di elettori parteciperà alle elezioni a livello globale, con elezioni previste in oltre 50 nazioni, che ospitano metà della popolazione del pianeta.
Elezioni e disinformazione spesso vanno di pari passo. Quest’anno, combattere la disinformazione sarà più difficile, perché non solo i vecchi tipi tradizionali di disinformazione saranno condivisi online, ma i deepfake e l’intelligenza artificiale generativa peggioreranno molto le cose. Ma più che i deepfake, ciò di cui dobbiamo preoccuparci sono i falsi superficiali, o i falsi economici.
Prima dell’avvento della tecnologia AI, venivano utilizzati alcuni metodi tradizionali per modificare immagini e video. Non erano molto bravi, ma facevano il loro lavoro per i venditori ambulanti di notizie false.
Pubblicità
I falsi superficiali o i falsi economici sono immagini, video e clip vocali creati senza l'aiuto della tecnologia AI ma modificando o utilizzando altri semplici strumenti software. I video falsi superficiali vengono alterati manualmente o modificati selettivamente. Possono essere creati facilmente, in alcuni casi può essere semplicemente un video ritagliato condiviso senza alcun contesto.
Qual è la differenza tra deepfake e superficiale?
Secondo Sam Gregory, direttore esecutivo di Witness.org, “i Deepfakes descrivono immagini, video e audio fotorealistici e audio-realistici creati o manipolati con l’intelligenza artificiale per ingannare. I falsi superficiali o i falsi economici vengono realizzati con le tecnologie esistenti, ad esempio una modifica convenzionale su una foto o il rallentamento di un video per modificare i modelli di discorso di un individuo, o più spesso si basano su didascalie errate o contestualizzazione errata di un'immagine esistente o video, sostenendo che provenga da un tempo o da un luogo da cui non proviene. Ad esempio, potresti utilizzare un'immagine dell'anno scorso di una protesta di uno stato sui diritti fondiari e presentarla come una protesta di ieri in un altro luogo.”
Un testimone afferma che aiuta le persone a utilizzare video e tecnologia per proteggere e difendere i diritti umani.
Un esempio popolare di falso superficiale è un video del vicepresidente degli Stati Uniti Kamala Harris che dice durante un discorso: “Oggi è oggi e ieri è oggi”
"Domani sarà oggi, domani." pic.twitter.com/saOHmaY5VY
— Ramble_Rants (@ramble_rants) 29 aprile 2023
Pubblicità
Il filmato originale proveniva da un discorso tenuto durante una manifestazione per il diritto all'aborto presso la Howard University nell'aprile 2023.< /p>
Con l'inizio delle elezioni di Lok Sabha previsto per il 19 aprile, le piattaforme di social media sono piene di disinformazione, principalmente sotto forma di falsi superficiali.
Esempi di falsi superficiali:
La guerra è iniziata con i social media dei partiti politici che condividono falsi superficiali per deridere i loro rivali. Uno di questi falsi superficiali è stato recentemente condiviso sull’handle X ufficiale del Congresso. Il partito ha preso di mira il Primo Ministro Narendra Modi con un'immagine trasformata in cui è stato visto in piedi davanti a una cornice raffigurante il wrestler Vinesh Phogat in lacrime. L'immagine è stata condivisa per la prima volta dall'handle il 1 giugno 2023 e poi di nuovo il 18 marzo.
< p lang="ciao" dir="ltr">बेटी रुलाओ pic.twitter.com/Gg5Jwedqna
— Congresso (@INCIndia), 1 giugno 2023
मैं बलात्कारियों को बचाने के लिए जान की बा जी लगा दूंगा.
– नरेंद्र मोदी pic.twitter.com/2ScUeSVn3D
— Congresso (@INCIndia), 18 marzo 2024
Il profilo Instagram ufficiale del BJP ha deriso il leader del Congresso Rahul Gandhi con un falso superficiale.
Visualizza questo post su Instagram
Pubblicità
L’afflusso di falsi superficiali sui social media aumenta ogni giorno. Uno di questi falsi superficiali mostrava il ministro dell'Unione Smriti Irani in un abito di danza del ventre.
पहचाना.. अपनी संस्कारी फ्लाइ न्ग किस 8230;..को..सोचा पूछ लू.@JaikyYadav16 @AlokChikku @PratikVoiceObc @RJDforIndia #InternationalWomensDay pic.twitter.com/TDV3YN9YlN
— Sushil Yadav (@SushilYadav216) marzo 8, 2024
Un altro video mostrava il leader dell'AIMIM Asaduddin Owaisi che cantava Shiv Tandav stotra.
Non puoi più farlo నగానే సాహెబ్ గారి నోటినుండి శివ తాండవ స్తోత్రం 👌
Non preoccuparti, non preoccuparti. చూసుకుంటే మీరే మళ్లీ గెలుస్తారు-నా సొంత అభిప్ర ాయం pic.twitter.com/NeuR5wy18X
— MalathiReddy 2.0 (@Malaathi_Reddi) 9 marzo 2024
I falsi superficiali influenzano il processo elettorale?
“I falsi economici e i falsi superficiali sono già pervasivi negli ambienti elettorali. Ad esempio, con immagini rivendicate di urne elettorali riciclate da un contesto all’altro o utilizzate con una spiegazione ingannevole (ad esempio, denunciando frodi elettorali) o video rallentati che mostrano un candidato fisicamente compromesso. Immagini sessualizzate grossolanamente manipolate sono state utilizzate per prendere di mira le donne ancor prima che la tecnologia deepfake rendesse molto più semplice la creazione di immagini sessuali o intime non consensuali di donne (e talvolta di uomini)”, ha affermato Sam Gregory.
Azahar Machwe, che lavora presso Lloyds Banking Group per creare una strategia per l’adozione delle capacità emergenti dell’intelligenza artificiale, ha affermato: “I falsi superficiali hanno un impatto sul processo elettorale, in particolare sul contenuto in cui viene sostituito l’audio. L'audio è banale ora. Questi falsi possono essere realizzati anche con un campione vocale molto piccolo. Il video può essere prelevato da qualsiasi luogo e l'audio può essere modificato con un elevato livello di precisione. Durante le elezioni i contenuti virali possono influenzare in brevissimo tempo.”
Le strade per creare falsi economici sono aumentate con il tempo?
“Falsi economici e falsi superficiali sono stati facili da realizzare sin dagli albori delle immagini su Internet. Si basano principalmente sul prendere contenuti esistenti e modificarne il contesto. E la crescente facilità degli strumenti di editing di foto e video ha reso sempre più semplice la creazione di falsi superficiali”, ha affermato Gregory.
Pubblicità
Machwe ha affermato che il confine tra deepfake e superficiali falsi è labile e che i loro volumi stanno aumentando, soprattutto nei luoghi in cui è difficile verificarne la fonte. “La maggior parte dei falsi si sta spostando verso prodotti modificati o creati dall'intelligenza artificiale poiché le funzionalità dell'intelligenza artificiale sono ora facilmente accessibili tramite app gratuite sugli smartphone”, ha aggiunto.
La maggior parte della disinformazione implica la riconfigurazione
Uno studio condotto all'inizio della pandemia dal Reuters Institute for Journalism dell'Università di Oxford ha rilevato che il 59% della disinformazione coinvolgeva varie forme di riconfigurazione, in cui informazioni esistenti e spesso vere vengono distorte, ricontestualizzate o rielaborate.
< p>“Meno la disinformazione (38%) è stata completamente inventata. Nonostante le recenti preoccupazioni, non troviamo esempi di deep fake nel nostro campione. Invece, i contenuti manipolati includono “falsi economici” prodotti utilizzando strumenti molto più semplici. La disinformazione riconfigurata rappresenta l’87% delle interazioni sui social media nel campione; i contenuti fabbricati, per il 12%.”
Gregory ha affermato che le piattaforme hanno rimosso quantità significative di contenuti falsi economici e superficiali riconfigurati durante la pandemia di Covid.
Pubblicità
“Per proteggersi sia dai deepfake che dai falsi superficiali è meglio iniziare con l'alfabetizzazione mediatica. Per i deepfake non è una buona idea sperare che i normali utenti dei social media possano individuare i “difetti” lasciati dai processi generativi in un'immagine o indovinare se un clone audio è fraudolento, poiché questi segnali non sono sempre facili da discernere”, ha detto Gregory.
“Invece è meglio iniziare sia con i falsi superficiali che con i falsi profondi con un approccio di alfabetizzazione mediatica. Utilizzo il metodo SIFT dell'accademico Mike Caulfield. Fermati (poiché è probabile che le tue emozioni siano innescate dalle immagini o dai video che stai vedendo), indaga sulla fonte; Trova una copertura alternativa e traccia l'originale”, ha affermato.
Leggi anche | L'intelligenza artificiale fa il suo debutto nei sondaggi di Lok Sabha con i deepfake e la clonazione della voce
“In particolare per le immagini false superficiali, rintracciare l'originale può essere semplice come fare una ricerca di immagini su Google per vedere se l'immagine preesisteva al reclamo e proveniva da un contesto diverso, o è stato manipolato o modificato”, ha aggiunto.
Secondo il Global Risk Report 2024 del World Economic Forum, l'India è al primo posto nell'affrontare il rischio di disinformazione.
Pubblicità
Il commissario capo elettorale Rajiv Kumar ha riconosciuto che affrontare la disinformazione nell'era digitale rappresenta una sfida complessa e ha consigliato ai partiti politici di dimostrare un comportamento responsabile, sottolineando così l'incombente minaccia della disinformazione.
©Indian Express Pvt Ltd
Leave a Reply
You must be logged in to post a comment.