Så här kan du se AI-genererade videor (för nu)

Snabblänkar

  • Att hitta AI-genererat innehåll kan vara en utmaning
  • Se upp för subtila förändringar och "Spöken"
  • AI kämpar med fingrar, glasögon och finare element
  • Titta noga på objekt i bakgrunden av en bild
  • Belysning och " AI Aura"
  • The Uncanny Valley Effect
  • Se upp för nonsens
  • Träna dig själv för att bättre upptäcka detta innehåll

Med ankomsten av OpenAIs SORA text-till-video-modell stirrar vi på en oundviklig framtid full av AI-genererad video. Men tekniken har ännu inte blivit fulländad, så här är några tips för att se AI-genererad video (för nu).

Att upptäcka AI-genererat innehåll kan vara en utmaning

Vid första anblicken skulle du bli förlåten för att du anger AI-genererad video som den verkliga affären. Det är först när du börjar titta lite djupare som du kanske börjar märka att något är fel.

Alla exempel som vi kommer att prata om i den här artikeln hänför sig till OpenAIs SORA text-till-video-modell, som tillkännagavs i februari 2024. Det är den överlägset mest avancerade modellen i sitt slag, som konverterar textmeddelanden till rörliga bilder. Saker och ting har kommit långt sedan det ökända inlägget som Will Smith äter spagetti Reddit dök upp i början av 2023. När detta skrivs i mars 2024 är SORA fortfarande i slutna tester.

Att se AI-genererade foton och videor är mer en konst än en exakt vetenskap. Det finns sätt att se om ett foto har genererats med AI, men de fungerar inte konsekvent. Verktyg utformade för att upptäcka AI-innehåll är ofta opålitliga, även när det kommer till text.

Syftet här är att lyfta fram några av sätten du kan välja ut AI-genererat innehåll, åtminstone för nu. Kom ihåg att modellerna alltid utvecklas, så dessa egenskaper kommer att bli svårare att upptäcka. Ibland kan valet av ämne och sammanhang för videon göra stor skillnad.

Se upp för subtila förändringar och "Ghosts"

Att leta efter subtila förändringar är ett sätt att upptäcka en övertygande AI-falsk, men det är inte direkt lätt. Ett exempel på OpenAIs SORA föreställde en kvinna som gick nerför en neonupplyst gata i Tokyo. Scenen är imponerande för ett text-till-video-verktyg, så imponerande att du kanske har missat garderobsbytet mot slutet av filmen.

Kvinnans kläder i öppningsscenen visar en röd klänning med en hel kofta och en läderjacka. Koftan är lite konstig på det sättet att den verkar smälta in i jackan, men jag är inte direkt Mr Fashion så jag ska ge den ett pass:

OpenAI

Ta nu en titt på samma kläder i närbilden och du ser att klänningen nu har mörka fläckar på sig och att skinnjackan har ett mycket större off-center-slag:

OpenAI

Detta är så subtilt att de flesta skulle behöva titta på filmen flera gånger för att upptäcka den. Scenen är tät, fylld med reflektioner och bakgrundsskådespelare som hjälper dig att distrahera dig från gaffeln.

strong>

Något annat att se upp med är spöken, eller föremål som fasas in och ut ur existensen. OpenAIs video av en stad i guldrushen i Kalifornien är ett bra exempel på detta. Ta en titt på denna ganska dunkla figur, som din hjärna förmodligen tolkar som en man med en häst:

OpenAI

Två sekunder senare har figuren försvunnit helt . Om du tittar på videon ser du den här figuren smälta in i smutsen som om den vore ett spöke:

OpenAI

AI kämpar med fingrar, glasögon och finare element

Ett av de största problemen för AI-generativa modeller är extremiteter och fina linjer. Titta särskilt noga på händer, hållna föremål, glasögon och hur saker interagerar med mänskliga drag (som hattar, hjälmar eller till och med hår).

Video kan göra den här typen av fel enklare. att se jämfört med AI-genererad fotografering eftersom dessa funktioner kan ändras från en scen till en annan.

Fingrar och handplacering är särskilt svåra för AI att få bort. Generativa modeller har en tendens att producera händer med fler eller färre fingrar än du förväntar dig. Ibland ser saker inte riktigt bra ut, fingrarna är väldigt tunna eller det finns för många knogar. Föremål som hålls uppvisar samma glädje, ibland verkar det som om människan i bilden har absorberat vad det än är de håller i.

Leta efter glasögon som inte verkar vara symmetriska eller som smälter samman till ansikten. I en video kan de till och med fasas in och ur sikte och byta mellan scenerna. Detsamma gäller armar och ben, ta bara en titt på den här SORA-videon av människor i Lagos, Nigera:

< /strong>

OpenAI

Kan du ta din tredje arm från mitt ben, tack?

Titta noga på objekt i bakgrunden av en bild

Bakgrundsdetaljer är ofta en död giveaway när det kommer till AI-genererad video, ännu mer än foton. En bra förfalskning beror på att motivet är tillräckligt övertygande för att distrahera dig om att bakgrunden inte riktigt beter sig som den borde vara.

Ta en titt på Tokyos nattscenvideo igen. Den här scenen är så tät att det är lätt att bara ta allt till nominellt värde, men titta noga på personerna som går i bakgrunden, särskilt de till vänster om motivet:

OpenAI

En del av den här rörelsen ser helt enkelt inte rätt ut. Vid ett tillfälle verkar en person duplicera sig själv. Senare tycks det som verkar vara en grupp människor fasas in i ett enda föremål som om de alla bär samma kjol eller överrock. I vissa områden är promenadanimationerna också udda.

Håll utkik efter misstänkt bakgrundsaktivitet för att upptäcka AI-genererad video. Ibland kommer du att märka att naturliga föremål som träd, åkrar eller skogar interagerar på konstiga sätt. Perspektiven kan verka avstängda, ibland stämmer inte rörliga objekt med vägen som skildras i animationen.

Ett annat exempel är OpenAIs Big Sur-kustlinjedrönare. Har du någonsin sett en våg som ser så rak ut i naturen?

Belysning och "AI Aura"

Detta är något vi har sett mycket i AI-genererade foton, och det är utan tvekan mer av en “känsla” än en objektivt identifierbar egenskap. Om belysningen känns särskilt platt och onaturlig i fall där du förväntar dig mer variation, kan det signalera att det kanske inte är verkligt.

Till exempel, brist på kamerafel som blomning, högdagerutslag ( där högdagrar går förlorade på grund av att för mycket ljus kommer in i linsen), eller skuggavrullning (där skuggdetaljer går förlorade på grund av frånvaro av ljus) är helt enkelt inte närvarande.

Allt kan se ut lite som en högproducerad musikvideo, eller som tv-spel under dagarna innan realistisk belysning och raytracing. Ämnen kan se perfekt upplysta ut i tillfällen där du förväntar dig att de inte skulle vara det.

The Uncanny Valley Effect

Den kusliga daleffekten är en term som används för att beskriva blandningen av mänskliga och omänskliga egenskaper på ett sätt som får betraktaren att känna sig obekväm. Androids eller människoliknande robotar är ofta citerade exempel eftersom de ger det yttre utseendet av att vara människor men samtidigt är oundvikligt omänskliga.

Oftare än inte beror den kusliga daleffekten helt enkelt på en känsla . Du kan känna att något inte stämmer, men du kan inte sätta fingret på exakt vad det är. Denna effekt lyfter ofta upp huvudet i AI-genererade foton och videor, och ett område som jag upplevde det är i SORAs rymdmansvideo.

Ignorerar för en sekund att rymdmannen i fråga bär en stickad rymdhjälm, det är något om detta ansikte som får en rysning längs ryggraden:

OpenAI

Och det finns en lika kuslig mormor som misslyckas med att blåsa ut sina födelsedagsljus, som ser mycket värre ut i rörelse:

OpenAI

Se upp för nonsens

Det här verkar vara den enklaste röda flaggan att upptäcka, men ibland låter din hjärna bara saker och ting passera. Den tidigare nämnda rymdmannens video är ett bra exempel på detta. Det finns en kort scen av en dörr, eller ett handtag, eller en spak, eller något som bara inte är vettigt:

OpenAI

Vad är det här? Varför tycks animeringen spelas omvänt? Den stickade hjälmen kan jag ursäkta, men den här saken har förbryllat mig sedan jag såg den.

Detsamma gäller för rörelser. SORA katten i säng-videon är imponerande, men rörelsen stämmer inte. Kattägare kommer att inse att beteendet är konstigt och onaturligt. Det känns som att det finns en oöverensstämmelse mellan ämnets beteende och situationens sammanhang. Med tiden kommer detta att förbättras.

Förvrängd text är ett annat bra exempel på vad AI-generativa processer ofta får fel. De japanska karaktärerna i SORAs nattscenvideo från Tokyo är ett virrvarr, och det är också en del av väg- och butiksskyltarna. Att välja en scen där de flesta människor inte kan skilja japaner från en dålig hyllning var ett smart val från OpenAI:s sida.

Träna dig själv för att bättre upptäcka detta innehåll

Det bästa sättet att träna dig själv i att upptäcka AI-genererat innehåll är att studera det själv. De flesta generativa modeller har aktiva gemenskaper både på webben och på sociala medieplattformar som Reddit. Hitta några och ta en titt på vad folk kommer på.

Utöver detta kan du skapa dina egna bilder med hjälp av ett verktyg som Stable Diffusion. I skrivande stund är OpenAIs SORA inte tillgänglig för allmänheten så du måste vänta innan du dyker in för dig själv.

AI-genererad video är imponerande, fascinerande och skrämmande på samma sätt mäta. Med tiden kommer dessa tips sannolikt att bli mindre relevanta när modellerna övervinner sina svagheter. Så spänn fast dig, för du har inte sett något ännu.


Posted

in

by

Tags:

Comments

Leave a Reply