Link rapidi
- Individuare i contenuti generati dall'intelligenza artificiale può essere una sfida
- Attenzione ai cambiamenti sottili e ai "Fantasmi"
- L'intelligenza artificiale lotta con dita, occhiali ed elementi più fini
- Osserva da vicino gli oggetti sullo sfondo di un'immagine
- L'illuminazione e il " AI Aura”
- L'effetto Uncanny Valley
- Attento alle sciocchezze
- Allenati per individuare meglio questo contenuto
Con l'arrivo del modello text-to-video SORA di OpenAI, stiamo fissando un futuro inevitabile pieno di video generati dall'intelligenza artificiale. Ma la tecnologia non è stata ancora perfezionata, quindi ecco alcuni suggerimenti per individuare i video generati dall'intelligenza artificiale (per ora).
Individuare i contenuti generati dall'intelligenza artificiale può essere una sfida
A prima vista, verresti perdonato se spargi i video generati dall'intelligenza artificiale come un vero affare. È solo quando inizi a guardare un po' più a fondo che potresti iniziare a notare che qualcosa non va.
Tutti gli esempi di cui parleremo in questo articolo riguardano il modello testo-video SORA di OpenAI, annunciato nel febbraio 2024. È di gran lunga il modello più avanzato nel suo genere, convertendo i messaggi di testo in immagini in movimento. Le cose hanno fatto molta strada da quando il famigerato post su Reddit di Will Smith che mangia gli spaghetti è emerso all'inizio del 2023. Al momento in cui scriviamo, nel marzo 2024, SORA è ancora in fase di test chiuso.
Individuare foto e video generati dall’intelligenza artificiale è più un’arte che una scienza esatta. Esistono modi per verificare se una foto è stata generata dall'intelligenza artificiale, ma non funzionano in modo coerente. Gli strumenti progettati per rilevare i contenuti generati dall'intelligenza artificiale sono spesso inaffidabili, anche quando si tratta di testo.
Lo scopo qui è quello di evidenziare alcuni dei modi in cui è possibile individuare i contenuti generati dall'intelligenza artificiale, almeno per ora. Ricorda che i modelli sono in continua evoluzione, quindi questi tratti diventeranno più difficili da individuare. A volte la scelta del soggetto e del contesto del video può fare la differenza.
Fai attenzione ai cambiamenti sottili e ai "Fantasmi"
Cercare sottili cambiamenti è un modo per individuare un'IA falsa convincente, ma non è esattamente facile. Un esempio di SORA di OpenAI raffigurava una donna che camminava lungo una strada di Tokyo illuminata al neon. La scena è impressionante per uno strumento di conversione testo in video, così impressionante che potresti non aver notato il cambio di guardaroba verso la fine del filmato.
L'abbigliamento della donna nella scena iniziale mostra un abito rosso con un cardigan lungo e una giacca di pelle. Il cardigan è un po' strano nel modo in cui sembra fondersi con la giacca, ma non sono esattamente Mr Fashion quindi ci provo:

Ora dai un'occhiata agli stessi vestiti in primo piano e vedrai che il vestito ora ha delle macchie scure e che la giacca di pelle ha un risvolto decentrato molto più grande:

È così sottile che la maggior parte delle persone avrebbe bisogno di guardarlo il filmato più volte per individuarlo. La scena è densa, piena di riflessioni e di attori in sottofondo che aiutano a distrarti dalla gaffe.
Qualcos'altro a cui prestare attenzione sono i fantasmi o gli oggetti che entrano ed escono dall'esistenza. Il video di OpenAI di una città californiana della corsa all'oro ne fornisce un buon esempio. Dai un'occhiata a questa figura dall'aspetto piuttosto nebuloso, che il tuo cervello probabilmente interpreta come un uomo con un cavallo:

Due secondi dopo, la figura è scomparsa del tutto . Se guardi il video, vedrai questa figura confondersi nella terra come se fosse un fantasma:

L'intelligenza artificiale lotta con dita, occhiali ed elementi più fini
Uno dei maggiori problemi per i modelli generatori di intelligenza artificiale sono estremità e linee sottili. In particolare, osserva attentamente le mani, gli oggetti che tieni, gli occhiali e il modo in cui le cose interagiscono con le caratteristiche umane (come cappelli, caschi o persino capelli).
Il video può rendere più semplice questo tipo di errore. da individuare rispetto alla fotografia generata dall'intelligenza artificiale perché queste caratteristiche possono cambiare da una scena all'altra.
Il posizionamento delle dita e delle mani è particolarmente difficile da realizzare per l’intelligenza artificiale. I modelli generativi hanno la tendenza a produrre mani con più o meno dita di quanto ci si aspetterebbe. A volte le cose non sembrano del tutto giuste, le dita sono molto sottili o ci sono troppe nocche. Gli oggetti tenuti in mano mostrano la stessa stranezza, a volte sembra che l'essere umano nell'inquadratura abbia assorbito qualunque cosa stiano tenendo.
Cerca occhiali che non sembrino simmetrici o che si fondano con i volti. In un video, possono anche apparire e scomparire gradualmente e cambiare da una scena all'altra. Lo stesso vale per braccia e gambe, basta dare un'occhiata a questo video SORA di persone a Lagos, Nigera:
< /strong>

Puoi togliermi il terzo braccio dalla gamba, per favore?
Osserva da vicino gli oggetti sullo sfondo di un'immagine
I dettagli dello sfondo sono spesso un chiaro indizio quando si tratta di video generati dall'intelligenza artificiale, ancor più delle foto. Un buon falso dipende dal fatto che il soggetto sia sufficientemente convincente da distrarti e farti notare che lo sfondo non si comporta come dovrebbe.
Dai un'altra occhiata al video della scena notturna di Tokyo. Questa scena è così densa che è facile prendere tutto per oro colato, ma guardare attentamente le persone che camminano sullo sfondo, in particolare quelle a sinistra del soggetto:

Alcuni di questi movimenti semplicemente non sembrano giusti. Ad un certo punto, una persona sembra duplicarsi. Successivamente, quello che sembra essere un gruppo di persone sembra trasformarsi in un unico oggetto, come se indossassero tutti la stessa gonna o lo stesso soprabito. In alcune aree, anche le animazioni della camminata sono strane.
Tieni d'occhio le attività sospette in background per individuare i video generati dall'intelligenza artificiale. A volte noterai oggetti naturali come alberi, campi o foreste che interagiscono in modi strani. Le prospettive possono sembrare fuori luogo, a volte gli oggetti in movimento non sono del tutto in linea con il percorso rappresentato nell'animazione.
Un altro esempio è la ripresa del drone sulla costa di Big Sur di OpenAI. Hai mai visto un'onda che sembra così dritta in natura?
L'illuminazione e l'"AI Aura"
Questo è qualcosa che abbiamo visto spesso nelle foto generate dall'intelligenza artificiale, ed è probabilmente più una “sensazione” piuttosto che un tratto oggettivamente identificabile. Se l'illuminazione sembra particolarmente piatta e innaturale nei casi in cui ti aspetteresti una maggiore variazione, ciò può segnalare che potrebbe non essere reale.
Ad esempio, la mancanza di imperfezioni della fotocamera come la fioritura, lo scoppio delle alte luci ( dove le luci vengono perse a causa di troppa luce che entra nell'obiettivo) o lo scorrimento delle ombre (dove i dettagli delle ombre vengono persi a causa dell'assenza di luce) semplicemente non sono presenti.
Tutto può assomigliare un po' a un video musicale di alto livello, o ai videogiochi nei giorni precedenti all'illuminazione realistica e al raytracing. I soggetti potrebbero apparire perfettamente illuminati laddove ci si aspetterebbe che non lo fossero.
L'effetto Uncanny Valley
L'effetto misteriosa valle è un termine usato per descrivere la mescolanza di tratti umani e disumani in un modo che mette a disagio lo spettatore. Gli androidi o i robot dall'aspetto umano sono esempi spesso citati poiché danno l'apparenza esteriore di esseri umani ma allo stesso tempo sono inevitabilmente disumani.
Il più delle volte l'effetto Uncanny Valley si riduce semplicemente a una sensazione . Puoi percepire che qualcosa non va bene, ma non puoi individuare esattamente di cosa si tratta. Questo effetto spesso si manifesta nelle foto e nei video generati dall'intelligenza artificiale e un'area in cui l'ho sperimentato è nel video dell'astronauta di SORA.
Ignorando per un secondo che l'astronauta in questione indossa un casco spaziale lavorato a maglia, c'è qualcosa su questo volto che mi fa venire i brividi lungo la schiena:

E c'è una nonna altrettanto macabra che non riesce a spegnere le candeline del suo compleanno, il che sembra molto peggio in movimento:

Attenzione alle sciocchezze
Sembra il segnale d'allarme più semplice da individuare, ma a volte il tuo cervello si limita a dare un passaggio. Il suddetto video dell’astronauta ne è un buon esempio. C'è una breve scena di una porta, o una maniglia, o una leva, o qualcosa che semplicemente non ha senso:

Cos'è questa cosa? Perché l'animazione sembra essere riprodotta al contrario? Il casco in maglia posso scusarlo, ma questa cosa mi ha lasciato perplesso dal momento in cui l'ho visto.
Lo stesso vale per i movimenti. Il video del gatto a letto di SORA è impressionante, ma il movimento non è corretto. I proprietari di gatti riconosceranno che il comportamento è strano e innaturale. Sembra che ci sia una discrepanza tra il comportamento del soggetto e il contesto della situazione. Col tempo, questo migliorerà.
Il testo confuso è un altro buon esempio di ciò che i processi generativi dell’IA spesso sbagliano. I personaggi giapponesi nel video della scena notturna di Tokyo di SORA sono un confuso, così come parte della segnaletica stradale e dei negozi. Scegliere una scena in cui la maggior parte delle persone non è in grado di distinguere il giapponese da un brutto tributo è stata una scelta intelligente da parte di OpenAI.
Allenati a individuare meglio questi contenuti
Il modo migliore per allenarti a individuare i contenuti generati dall'intelligenza artificiale è studiarli da solo. La maggior parte dei modelli generativi ha comunità attive sia sul web che su piattaforme di social media come Reddit. Trovane alcune e dai un'occhiata a cosa inventano le persone.
Inoltre, potresti generare le tue immagini utilizzando uno strumento come Stable Diffusion. Al momento in cui scrivo, SORA di OpenAI non è disponibile per l'uso pubblico, quindi dovrai aspettare prima di tuffarti tu stesso.
Il video generato dall'intelligenza artificiale è impressionante, affascinante e terrificante allo stesso tempo misurare. Nel corso del tempo, questi suggerimenti diventeranno probabilmente meno rilevanti man mano che i modelli supereranno i loro punti deboli. Quindi allacciati le cinture, perché non hai ancora visto nulla.
Leave a Reply
You must be logged in to post a comment.