Wat Is een Deepfake, en Moet ik me zorgen maken?

0
385
meyer_solutions/Shutterstock

We hebben de neiging om te vertrouwen op de inhoud van de video-en audio-opnames. Maar met AI, wie het gezicht of de stem kan worden gemaakt met pin-point nauwkeurigheid. Het product is een deepfake, een imitatie dat kan worden gebruikt voor memen, desinformatie, of porno.

Een blik op de Nicholas Cage deepfakes of Jordan Peele ‘ s deepfake PSA maakt duidelijk dat we te maken hebben met vreemde nieuwe technologie. Deze voorbeelden, terwijl relatief onschadelijk, vragen over de toekomst. Kunnen we vertrouwen op video en audio? Kunnen we mensen verantwoordelijk stellen voor hun handelingen op het scherm? Zijn we klaar voor deepfakes?

Deepfakes Zijn Nieuwe, Eenvoudig te Maken, en we Groeien Snel

Deepfake technologie is slechts een paar jaar oud, maar het is al ontploft in iets dat het zowel boeiend en verontrustend. De term “deepfake,” die was bedacht op een Reddit draad in 2017, wordt gebruikt om te beschrijven de recreatie van een mens, is het uiterlijk of de stem door middel van kunstmatige intelligentie. Verrassend, bijna iedereen kan het maken van een deepfake met een crappy PC, bepaalde software, en een paar uur werk.

Geloof het of niet, het beeld aan de linkerkant is de deepfake. Diep Hommage/Bob Thornton

Zoals met elke nieuwe technologie, is er wat verwarring rondom deepfakes. De ‘dronken Pelosi” video is een uitstekend voorbeeld van deze verwarring. Deepfakes worden geconstrueerd door de AI, en ze maakte zich voor te doen als mensen. De “dunk Pelosi” video, die is bedoeld om als een deepfake, is eigenlijk gewoon een video van Nancy Pelosi die is vertraagd en pitch-correctie voor het toevoegen van een onduidelijke spraak-effect.

Dit is ook wat maakt deepfakery verschillende van, zeg, de CGI Carrie Fisher in Star Wars: Rogue Één. Terwijl Disney bracht een hoop geld bestuderen van Carrie Fisher ‘ s gezicht en opnieuw te maken met de hand, een nerd met een aantal deepfake software kan doen hetzelfde werk gratis in een enkele dag. AI maakt het werk zeer eenvoudige, goedkope en overtuigend.

Hoe Maak je een Deepfake

Als een student in een klas, AI om te “leren” hoe het uitvoeren van de beoogde taak. Dit gebeurt via een proces van brute-force trial and error, meestal aangeduid als ‘machine learning’ of diep leren. Een AI dat is ontworpen om het eerste level van Super Mario Bros, bijvoorbeeld, zal het spel over en weer, totdat hij ontdekt dat de beste manier om te winnen. De persoon met het ontwerpen van de AI moet bieden sommige gegevens om dingen op te starten, samen met een paar “regels” als er dingen fout gaan langs de weg. Afgezien van dat, de AI doet al het werk.

Hetzelfde geldt voor deepfake gezicht recreatie. Maar, natuurlijk, het opnieuw maken van gezichten is niet hetzelfde als het slaan van een video game. Als we creëren een deepfake van Nicholas Cage de hosting van Wendy Williams show, hier is wat we nodig zouden hebben:

  • Een Bestemming Video: Als van nu, deepfakes het beste werken met heldere, schone bestemming video ‘ s. Dat is de reden waarom sommige van de meest overtuigende deepfakes zijn van politici; ze hebben de neiging om stil te staan op een podium onder een consistente verlichting. Dus, we moeten alleen een video van Wendy stil te zitten en te praten.
  • Twee Datasets: Voor de mond en de bewegingen van het hoofd om te kijken nauwkeurige, moeten we een dataset van Wendy Williams’ gezicht en een dataset van Nicholas Cage ‘ s gezicht. Als Wendy rechts kijkt, moeten we een foto van Nicholas Cage op zoek naar het recht. Als Wendy opent haar mond, we hebben een foto van de Kooi openen van zijn mond.

Daarna laten we de AI zijn werk doen. Het probeert te maken van de deepfake over en weer, het leren van haar fouten, langs de weg. Eenvoudig, juist? Goed, een video van Cage ‘s gezicht op Wendy William’ s lichaam is niet van plan om gek van iedereen, dus hoe kunnen we een stukje verder?

People Magazine/Time Magazine

De meest overtuigende (en mogelijk schadelijke) deepfakes zijn all-out impersonations. De populaire Obama deepfake door Jordan Peele is een goed voorbeeld van. Dus laten we een van deze impersonations. We maken een deepfake van Mark Zuckerberg te verklaren zijn haat tegen mieren—dat klinkt overtuigend, nietwaar? Hier hebben we het volgende nodig:

  • Een Bestemming Video: een video van Zuckerberg zelf of een acteur die lijkt te Zuckerberg. Als onze bestemming video is van een acteur, zullen we gewoon plakken Zuckerberg het gezicht van de acteur.
  • Foto van Gegevens: We moeten de foto ‘ s van Zuckerberg praten, knipperen, en het bewegen van zijn hoofd rond. Als we de overlapping van zijn gezicht op een acteur, we moeten een dataset van de acteur, gezichts-bewegingen.
  • De Zuck ‘ s Stem: Onze deepfake moet klinken als De Zuck. Dit kunnen We doen door het opnemen van een imitator, of door het herscheppen van Zuckerberg ‘ s stem met AI. Opnieuw zijn stem, zijn we gewoon audio-samples van Zuckerberg door een AI-net als Liervogel, en typ vervolgens uit wat we willen hem te zeggen.
  • Een Lip-Sync-AI: Sinds voegen we de stem van de valse Zuckerberg om onze video -, lip-sync AI moet ervoor zorgen dat de deepfake gezichtsbewegingen overeenkomen met wat wordt gezegd.

We zijn niet proberen te bagatelliseren het werk en de expertise die verder gaat in het deepfakery. Maar in vergelijking met de miljoen dollar CGI werk dat bracht Audrey Hepburn terug uit de dood, deepfakes een wandeling in het park. En terwijl we nog niet gevallen is voor een politieke of celebrity deepfake gewoon nog niet, zelfs de crappiest, meest voor de hand liggende deepfakes hebben veroorzaakt echte schade.

GERELATEERD: Het Probleem Met AI: Machines Zijn die Dingen Leren, Maar Kan het niet Begrijpen

Deepfakes Al Veroorzaakt In De Echte Wereld Harm

Als van nu, de meerderheid van de deepfakes zijn slechts Nicholas Cage memen, publieke aankondigingen en griezelig celebrity porno. Deze verkooppunten zijn relatief ongevaarlijk en makkelijk te identificeren, maar in sommige gevallen, deepfakes zijn met succes gebruikt voor het verspreiden van desinformatie en pijn van het leven van anderen.

In India, deepfakes in dienst zijn van de Hindoe-nationalisten in diskrediet te brengen en aan te zetten tot geweld tegen vrouwelijke journalisten. In 2018, een journalist met de naam Rana Ayyub slachtoffer werd van een dergelijke desinformatie campagne, waarin opgenomen een deepfake video van haar gezicht heen gelegd op een pornografische video. Dit heeft geleid tot andere vormen van online pesten en de dreiging van fysiek geweld.

Stateside, deepfake technologie wordt vaak gebruikt voor het maken van gewenst wraak porno. Zoals gerapporteerd door Vice, veel gebruikers van het inmiddels verboden deepfakes Reddit forum gevraagd hoe maak deepfakes van ex-vriendinnen, verplettert, vrienden en klasgenoten (ja, kinderporno). Het probleem is zo groot dat Virginia nu outlaws alle vormen van niet-toegestane pornografie, met inbegrip van deepfakes.

Als deepfakes meer en meer overtuigend, de technologie zal ongetwijfeld worden gebruikt voor dubieuze doeleinden. Maar er is een kans dat we overdrijf, toch? Is dit niet de meest logische stap na Photoshop?

Deepfakes Zijn een Natuurlijke Uitbreiding van Gemanipuleerde Beelden

Zelfs in hun meest elementaire niveau, deepfakes zijn verontrustend. We vertrouwen video-en audio-opnames vast te leggen van mensen van de woorden en daden zonder vooroordeel of verkeerde informatie. Maar een manier om de dreiging van deepfakes is niet nieuw. Het is al sinds we voor het eerst begonnen met fotografie.

Neem bijvoorbeeld de weinige foto ‘ s die er bestaan van Abraham Lincoln. De meerderheid van deze foto ‘s (met inbegrip van de portretten op de cent en de vijf dollar bill) waren gesleuteld door een fotograaf met de naam Mathew Brady te verbeteren Lincoln’ s spichtig uiterlijk (specifiek zijn dunne nek). Een aantal van deze portretten werden bewerkt op een wijze die doet denken aan deepfakes, met Lincoln ‘ s hoofd geplaatst op de lichamen van de “sterke” mannen als Calhoun (in het voorbeeld hieronder is een ets, een foto).

Atlas Obscura/Library of Congress

Dit klinkt als een bizarre beetje publiciteit, maar tijdens de jaren 1860, fotografie droeg een bepaald bedrag van de “waarheid” dat we nu reserve voor video-en audio-opnames. Het werd beschouwd als de tegenpool van de kunst—wetenschap. Deze foto ‘ s werden gesleuteld om opzettelijk in diskrediet brengen van de kranten die kritiek op Lincoln voor zijn zwakke lichaam. In het einde, het werkte. De amerikanen waren onder de indruk van Lincoln ‘s figuur, en het Lincoln zelf beweerde dat Brady ‘s foto’ s “maakte me president.”

De verbinding tussen deepfakes-en 19de-eeuwse foto ‘ s bewerken is vreemd geruststellend. Het biedt ons het verhaal dat, terwijl deze technologie heeft ernstige gevolgen, het is niet iets dat volledig buiten onze controle. Maar, helaas, dat verhaal kan niet voor heel lang.

We zullen niet in Staat Zijn de Deepfakes voor Altijd

We spotten valse beelden en video ‘ s met onze ogen. Het is gemakkelijk om te kijken naar een Joseph Goebbels familie portret en zeggen, “er is iets vreemds aan die man in de rug.” Een blik op Noord-koreaanse propaganda foto ‘ s maakt het duidelijk dat, zonder YouTube tutorials, mensen suck at Photoshop. En zo indrukwekkend als deepfakes zijn, het is nog steeds mogelijk om ter plaatse een deepfake op zicht alleen.

Maar we zullen niet in staat zijn de deepfakes voor veel langer. Elk jaar, deepfakes meer overtuigen en zelfs nog makkelijker te maken. U kunt een deepfake met een enkele foto, en kunt u gebruik maken van AI als Liervogel om een kloon van stemmen in minder dan een minuut. High-tech deepfakes dat het samenvoegen van valse video en audio zijn ongelooflijk overtuigend, zelfs wanneer ze gemaakt zijn om te imiteren herkenbare figuren als Mark Zuckerberg.

In de toekomst, kunnen we gebruik maken AI, algoritmen, en blockchain technologie om te vechten tegen deepfakes. Theoretisch, AI kan een scan video ‘ s te kijken voor deepfake “vingerafdrukken” en blockchain tech geïnstalleerd met verschillende besturingssystemen kan vlag gebruikers of bestanden die zijn aangeraakt deepfake software.

Als deze anti-deepfake methoden dom klinken voor u, wordt dan lid van de club. Ook AI-onderzoekers zijn twijfelachtig dat er een echte oplossing te deepfakes. Als detectie software wordt steeds beter, dus zal deepfakes. Uiteindelijk zullen we bereiken een punt waar deepfakes zal het onmogelijk zijn om op te sporen, en we hebben veel meer zorgen over te maken dan een nep-celebrity porno en Nicolas Cage video ‘ s.

LEES VERDER

  • “Het Gebruik van Linux ar Opdracht voor het Maken van Statische Bibliotheken
  • “Hoe Internet Snelheid Testen In Zijn Werk? (en Hoe Nauwkeurig Zijn Ze?)
  • “Hoe om te Controleren Uw Wi-Fi-signaalsterkte
  • “Wat Is de “Opwaardering” op een TV, en Hoe Werkt Het?
  • “Hoe Ziet u de Toepassingen op Uw Netwerk op Windows 10