AllInfo

Wat Is een Deepfake, en Moet ik me zorgen maken?

meyer_solutions/Shutterstock

We hebben de neiging om te vertrouwen op de inhoud van de video-en audio-opnames. Maar met AI, wie het gezicht of de stem kan worden gemaakt met pin-point nauwkeurigheid. Het product is een deepfake, een imitatie dat kan worden gebruikt voor memen, desinformatie, of porno.

Een blik op de Nicholas Cage deepfakes of Jordan Peele ‘ s deepfake PSA maakt duidelijk dat we te maken hebben met vreemde nieuwe technologie. Deze voorbeelden, terwijl relatief onschadelijk, vragen over de toekomst. Kunnen we vertrouwen op video en audio? Kunnen we mensen verantwoordelijk stellen voor hun handelingen op het scherm? Zijn we klaar voor deepfakes?

Deepfakes Zijn Nieuwe, Eenvoudig te Maken, en we Groeien Snel

Deepfake technologie is slechts een paar jaar oud, maar het is al ontploft in iets dat het zowel boeiend en verontrustend. De term “deepfake,” die was bedacht op een Reddit draad in 2017, wordt gebruikt om te beschrijven de recreatie van een mens, is het uiterlijk of de stem door middel van kunstmatige intelligentie. Verrassend, bijna iedereen kan het maken van een deepfake met een crappy PC, bepaalde software, en een paar uur werk.

Geloof het of niet, het beeld aan de linkerkant is de deepfake. Diep Hommage/Bob Thornton

Zoals met elke nieuwe technologie, is er wat verwarring rondom deepfakes. De ‘dronken Pelosi” video is een uitstekend voorbeeld van deze verwarring. Deepfakes worden geconstrueerd door de AI, en ze maakte zich voor te doen als mensen. De “dunk Pelosi” video, die is bedoeld om als een deepfake, is eigenlijk gewoon een video van Nancy Pelosi die is vertraagd en pitch-correctie voor het toevoegen van een onduidelijke spraak-effect.

Dit is ook wat maakt deepfakery verschillende van, zeg, de CGI Carrie Fisher in Star Wars: Rogue Één. Terwijl Disney bracht een hoop geld bestuderen van Carrie Fisher ‘ s gezicht en opnieuw te maken met de hand, een nerd met een aantal deepfake software kan doen hetzelfde werk gratis in een enkele dag. AI maakt het werk zeer eenvoudige, goedkope en overtuigend.

Hoe Maak je een Deepfake

Als een student in een klas, AI om te “leren” hoe het uitvoeren van de beoogde taak. Dit gebeurt via een proces van brute-force trial and error, meestal aangeduid als ‘machine learning’ of diep leren. Een AI dat is ontworpen om het eerste level van Super Mario Bros, bijvoorbeeld, zal het spel over en weer, totdat hij ontdekt dat de beste manier om te winnen. De persoon met het ontwerpen van de AI moet bieden sommige gegevens om dingen op te starten, samen met een paar “regels” als er dingen fout gaan langs de weg. Afgezien van dat, de AI doet al het werk.

Hetzelfde geldt voor deepfake gezicht recreatie. Maar, natuurlijk, het opnieuw maken van gezichten is niet hetzelfde als het slaan van een video game. Als we creëren een deepfake van Nicholas Cage de hosting van Wendy Williams show, hier is wat we nodig zouden hebben:

Daarna laten we de AI zijn werk doen. Het probeert te maken van de deepfake over en weer, het leren van haar fouten, langs de weg. Eenvoudig, juist? Goed, een video van Cage ‘s gezicht op Wendy William’ s lichaam is niet van plan om gek van iedereen, dus hoe kunnen we een stukje verder?

People Magazine/Time Magazine

De meest overtuigende (en mogelijk schadelijke) deepfakes zijn all-out impersonations. De populaire Obama deepfake door Jordan Peele is een goed voorbeeld van. Dus laten we een van deze impersonations. We maken een deepfake van Mark Zuckerberg te verklaren zijn haat tegen mieren—dat klinkt overtuigend, nietwaar? Hier hebben we het volgende nodig:

We zijn niet proberen te bagatelliseren het werk en de expertise die verder gaat in het deepfakery. Maar in vergelijking met de miljoen dollar CGI werk dat bracht Audrey Hepburn terug uit de dood, deepfakes een wandeling in het park. En terwijl we nog niet gevallen is voor een politieke of celebrity deepfake gewoon nog niet, zelfs de crappiest, meest voor de hand liggende deepfakes hebben veroorzaakt echte schade.

GERELATEERD: Het Probleem Met AI: Machines Zijn die Dingen Leren, Maar Kan het niet Begrijpen

Deepfakes Al Veroorzaakt In De Echte Wereld Harm

Als van nu, de meerderheid van de deepfakes zijn slechts Nicholas Cage memen, publieke aankondigingen en griezelig celebrity porno. Deze verkooppunten zijn relatief ongevaarlijk en makkelijk te identificeren, maar in sommige gevallen, deepfakes zijn met succes gebruikt voor het verspreiden van desinformatie en pijn van het leven van anderen.

In India, deepfakes in dienst zijn van de Hindoe-nationalisten in diskrediet te brengen en aan te zetten tot geweld tegen vrouwelijke journalisten. In 2018, een journalist met de naam Rana Ayyub slachtoffer werd van een dergelijke desinformatie campagne, waarin opgenomen een deepfake video van haar gezicht heen gelegd op een pornografische video. Dit heeft geleid tot andere vormen van online pesten en de dreiging van fysiek geweld.

Stateside, deepfake technologie wordt vaak gebruikt voor het maken van gewenst wraak porno. Zoals gerapporteerd door Vice, veel gebruikers van het inmiddels verboden deepfakes Reddit forum gevraagd hoe maak deepfakes van ex-vriendinnen, verplettert, vrienden en klasgenoten (ja, kinderporno). Het probleem is zo groot dat Virginia nu outlaws alle vormen van niet-toegestane pornografie, met inbegrip van deepfakes.

Als deepfakes meer en meer overtuigend, de technologie zal ongetwijfeld worden gebruikt voor dubieuze doeleinden. Maar er is een kans dat we overdrijf, toch? Is dit niet de meest logische stap na Photoshop?

Deepfakes Zijn een Natuurlijke Uitbreiding van Gemanipuleerde Beelden

Zelfs in hun meest elementaire niveau, deepfakes zijn verontrustend. We vertrouwen video-en audio-opnames vast te leggen van mensen van de woorden en daden zonder vooroordeel of verkeerde informatie. Maar een manier om de dreiging van deepfakes is niet nieuw. Het is al sinds we voor het eerst begonnen met fotografie.

Neem bijvoorbeeld de weinige foto ‘ s die er bestaan van Abraham Lincoln. De meerderheid van deze foto ‘s (met inbegrip van de portretten op de cent en de vijf dollar bill) waren gesleuteld door een fotograaf met de naam Mathew Brady te verbeteren Lincoln’ s spichtig uiterlijk (specifiek zijn dunne nek). Een aantal van deze portretten werden bewerkt op een wijze die doet denken aan deepfakes, met Lincoln ‘ s hoofd geplaatst op de lichamen van de “sterke” mannen als Calhoun (in het voorbeeld hieronder is een ets, een foto).

Atlas Obscura/Library of Congress

Dit klinkt als een bizarre beetje publiciteit, maar tijdens de jaren 1860, fotografie droeg een bepaald bedrag van de “waarheid” dat we nu reserve voor video-en audio-opnames. Het werd beschouwd als de tegenpool van de kunst—wetenschap. Deze foto ‘ s werden gesleuteld om opzettelijk in diskrediet brengen van de kranten die kritiek op Lincoln voor zijn zwakke lichaam. In het einde, het werkte. De amerikanen waren onder de indruk van Lincoln ‘s figuur, en het Lincoln zelf beweerde dat Brady ‘s foto’ s “maakte me president.”

De verbinding tussen deepfakes-en 19de-eeuwse foto ‘ s bewerken is vreemd geruststellend. Het biedt ons het verhaal dat, terwijl deze technologie heeft ernstige gevolgen, het is niet iets dat volledig buiten onze controle. Maar, helaas, dat verhaal kan niet voor heel lang.

We zullen niet in Staat Zijn de Deepfakes voor Altijd

We spotten valse beelden en video ‘ s met onze ogen. Het is gemakkelijk om te kijken naar een Joseph Goebbels familie portret en zeggen, “er is iets vreemds aan die man in de rug.” Een blik op Noord-koreaanse propaganda foto ‘ s maakt het duidelijk dat, zonder YouTube tutorials, mensen suck at Photoshop. En zo indrukwekkend als deepfakes zijn, het is nog steeds mogelijk om ter plaatse een deepfake op zicht alleen.

Maar we zullen niet in staat zijn de deepfakes voor veel langer. Elk jaar, deepfakes meer overtuigen en zelfs nog makkelijker te maken. U kunt een deepfake met een enkele foto, en kunt u gebruik maken van AI als Liervogel om een kloon van stemmen in minder dan een minuut. High-tech deepfakes dat het samenvoegen van valse video en audio zijn ongelooflijk overtuigend, zelfs wanneer ze gemaakt zijn om te imiteren herkenbare figuren als Mark Zuckerberg.

In de toekomst, kunnen we gebruik maken AI, algoritmen, en blockchain technologie om te vechten tegen deepfakes. Theoretisch, AI kan een scan video ‘ s te kijken voor deepfake “vingerafdrukken” en blockchain tech geïnstalleerd met verschillende besturingssystemen kan vlag gebruikers of bestanden die zijn aangeraakt deepfake software.

Als deze anti-deepfake methoden dom klinken voor u, wordt dan lid van de club. Ook AI-onderzoekers zijn twijfelachtig dat er een echte oplossing te deepfakes. Als detectie software wordt steeds beter, dus zal deepfakes. Uiteindelijk zullen we bereiken een punt waar deepfakes zal het onmogelijk zijn om op te sporen, en we hebben veel meer zorgen over te maken dan een nep-celebrity porno en Nicolas Cage video ‘ s.

LEES VERDER

Exit mobile version