Generatieve AI stimuleert oplichting (hier leest u hoe en waar u op moet letten)

Snelle links

  • De democratisering van nepbeelden
  • AI-stemmen geven video geloofwaardigheid
  • Oplichters van datingapps werpen bredere netwerken uit
  • AI-video is in aantocht
  • AI Kan zelfs beoordelingen vervalsen
  • Dingen kunnen alleen maar beter (erger) worden

Belangrijkste tips

  • Oplichters worden creatiever met nepproducten en door AI gegenereerde voice-overs om nietsvermoedende kopers te boeien.
  • Oplichters van datingapps gebruiken AI-chatbots om zich op slachtoffers te richten; neprecensies worden eenvoudiger met grote taalmodellen.
  • Naarmate de AI-technologie verbetert, zal het moeilijker worden om echte inhoud van namaak te onderscheiden; doe altijd onderzoek voordat u online koopt.

De term “oplichting” is van toepassing op alles, van een geavanceerde, gerichte aanval tot een onbetrouwbare preroll-advertentie op uw favoriete videostreamingsite. Het slechte nieuws is dat het bedenken van deze oplichting steeds eenvoudiger wordt.

De democratisering van nepbeelden

Er is een dunne maar duidelijke grens tussen oplichting en spam, maar de twee domeinen overlappen elkaar regelmatig. Dit geldt vooral als het gaat om online adverteren, of u nu op internet surft of door sociale media scrollt. Adverteerders keuren niet elke advertentie goed die ze tonen, maar vertrouwen in plaats daarvan op gebruikersrapporten om de slechte acteurs uit te schakelen.

Als u veel tijd online doorbrengt, scrollt u waarschijnlijk elke dag langs talloze onbetrouwbare advertenties. Misschien wel de meest interessante hiervan zijn de producten die niet bestaan ​​en in plaats daarvan verzinsels zijn die met de hand zijn gemaakt of met behulp van generatieve AI zoals DALL-E of Midjourney.

Potentiële kopers aan de haak slaan met namaakproducten is niets nieuws, maar ooit had je visie, wat Photoshop-vaardigheden en een stuk vrije tijd nodig. Met de komst van tekst-naar-afbeelding-generatoren kunt u zo weinig of zo veel tijd besteden als u wilt aan het invoeren van aanwijzingen in een afbeeldingsgenerator totdat u de resultaten krijgt waarnaar u op zoek bent. De lucht is de limiet als het gaat om het soort producten dat je kunt bedenken.

In april 2024 meldde Snopes dat een groot aantal “Cat's Eye Dazzle” -producten oplichting raasde als een storm over de sociale media. De zwendel bestond uit het genereren van nepbloemen die op katten lijken, om gebruikers op sociale netwerken zoals Facebook aan te trekken. Er verschenen aanbiedingen op eBay voor de zaden, terwijl andere 'verkopers' gebruikte zelfgehoste winkelportals om uit te betalen.

Voor sommigen is het meteen duidelijk dat deze bloemen door AI gegenereerde namaakproducten zijn. Andere soortgelijke oplichting is niet zo vergezocht. YouTube-kanaal Atomic Shrimp heeft een video gemaakt waarin het fenomeen wordt gedocumenteerd, waarbij redelijker klinkende vermeldingen voor 'echte' berichten worden onderzocht. blauwe rozen en zonnebloemen, die geen van beide bestaan.

Bloemen die lijken op katten en planten met onmogelijke kleuringen zijn slechts twee voorbeelden van oplichting die honderden, zo niet duizenden mensen lijkt te hebben betrapt. Het duurde een paar seconden om deze afbeeldingen te genereren, en nog een paar om op Facebook te plaatsen.

AI-stemmen geven video geloofwaardigheid

U bent zich waarschijnlijk goed bewust van de opkomst van tekst-naar-stem functies, waarbij sociale platforms zoals TikTok het gemakkelijk maken om een ​​voice-over te genereren die natuurlijk klinkt maar ook gemakkelijk te begrijpen is. Inmiddels heeft de “TikTok-dame” Voice gaat zowel over de branding van TikTok als over een handig hulpmiddel voor makers van inhoud.

Maar AI-stemmen zijn zoveel meer dan dat. ChatGPT kan voice-overs genereren als u voor het premiumniveau betaalt, en diensten zoals ElevenLabs hebben gratis niveaus beschikbaar. Ik heb kleinere YouTube-kanalen zien draaien van makers die het niet prettig vinden om voor de camera te spreken, maar overgaan op door AI gegenereerde stemmen. Dit kan schokkend zijn, maar is in ieder geval gebaseerd op goede bedoelingen.

Het belangrijkste is dat een voice-over je video geloofwaardigheid geeft. Een paar jaar geleden moest je tijd, moeite of geld steken in het toevoegen van een voice-over aan je video. Je hebt apparatuur en oefening nodig, of een ingehuurde stemacteur. Nu is het zo simpel als het schrijven van een script waar u tevreden mee bent en het kiezen van de stem die u wilt gebruiken.

Dit maakt oplichtingsadvertenties voor plannen om snel rijk te worden en dropshipping-producten des te geloofwaardiger. Als de advertentie klinkt als een echte deal, bent u waarschijnlijk geneigd meer vertrouwen in het product te stellen. De mensen die deze advertenties maken weten dit en daarom heeft deze praktijk het afgelopen jaar een explosie plaatsgevonden.

Voorlopig is het niet zo moeilijk om door AI gegenereerde voice-over te identificeren. Verbuigingen en uitspraak kunnen een beetje robotachtig klinken, en het natuurlijke ritme van menselijke spraak is niet helemaal aanwezig. Zet je schrap, want deze tools zullen alleen maar verbeteren en uiteindelijk zul je het verschil niet meer kunnen zien.

Dating-app-oplichters werpen bredere netten uit

Het is één ding om te worden lastiggevallen met nepproducten en een robotachtige voice-over, maar hoe zit het met oplichting die persoonlijk op jou is gericht? Dat is precies wat er op grote schaal gebeurt in de online datingwereld, dankzij de kracht van grote taalmodellen die kunnen praten als echte mensen (nou ja, dichtbij genoeg).

Met behulp van AI-aangedreven chatbots kunnen oplichters een breed net uitwerpen om hun slachtoffers te strikken met behulp van software die een gesprek effectief lang genoeg kan onderbreken om iemands aandacht te trekken. Er zijn een paar manieren waarop dit wordt gebruikt, en ze voelen allemaal invasief aan.

Sommigen gebruiken chatbots om grote groepen mensen berichten te sturen, en volgen vervolgens op in de hoop iemand te ontmoeten die ze echt leuk vinden. Begin 2024 waren er talloze meldingen van een man die zijn vrouw via deze techniek ontmoette. Of je het nu gelooft of niet, er zijn een groot aantal mobiele apps en services die beloven potentiële partners voor je te chatten (uiteraard tegen betaling).

De zaken nemen een beslist sinistere wending wanneer deze instrumenten worden gebruikt om doelwitten voor financiële oplichting te vinden. Online oplichters maken al lange tijd gebruik van het fundamentele menselijke verlangen naar gezelschap in een poging geld uit hun buit te halen. Nu kunnen ze chatbots voor hen aan het werk zetten en het overnemen wanneer ze dat nodig achten.

Koppel dit aan een AI-beeldgenerator die je toegang geeft tot zoveel originele mooie gezichten als je wilt, en oplichters hoeven niet eens meer de datingprofielfoto's van iemand anders te stelen.

AI-video is in aantocht

Overtuigende tekst-naar-video is op het moment van schrijven nog niet algemeen beschikbaar, maar met tools als OpenAI SORA in aantocht zal het een kracht worden om rekening mee te houden. Met slechts een prompt kan de tool van OpenAI realistisch ogende bewegende beelden genereren (maar als je goed kijkt, kun je de gebreken ontdekken).

OpenAI

Als er niets meer is, zal door AI gegenereerde video de problemen van andere door AI gegenereerde inhoud alleen maar verergeren. Door het gebruik van steeds betere kunstmatige intelligentie is het niet moeilijk om je een toekomst voor te stellen waarin je nep-productafbeeldingen kunt genereren, video van dat product dat op relevante locaties wordt gebruikt door 'echte' producten. mensen, en een voice-over voor de video die je kunt gebruiken om er reclame voor te maken.

Als u zich bijzonder ondernemend voelt, kunt u een groot taalmodel gebruiken om de reputatie van uw product een boost te geven…

AI kan zelfs beoordelingen vervalsen

Valse beoordelingen zijn niets nieuws. We hebben ze allemaal gezien en velen van ons zijn ervoor gevallen (of we het nu weten of niet). Maar tot een paar jaar geleden vergden neprecensies enige inspanning. Met de komst van grote taalmodellen kunnen neprecensies zichzelf letterlijk op grote schaal schrijven.

Het misbruik van grote taalmodellen om recensies te genereren en producten of bedrijven te promoten is één ding, maar de technologie werkt in beide richtingen. Hoe zit het met het gebruik van deze technologie om recensies te maken die op oneerlijke wijze kritiek leveren op een concurrerend product? Het is nog nooit zo eenvoudig geweest om een ​​negatieve dekvloer te genereren, zelfs als u deze zelf moet kopiëren en plakken.

Combineer door AI gegenereerde beoordelingen met meer traditionele poetszwendel en je hebt de geloofwaardigheid van een “geverifieerde aankoop” label om op te starten. Uiteindelijk is het aan platformhouders om deze nieuwe golf van misleidende online-inhoud te bestrijden.

Dingen kunnen alleen maar beter worden (erger)

Deze tools zullen in de loop van de tijd beter worden, waardoor het moeilijker wordt om de werkelijkheid van elkaar te onderscheiden het fantastische. Als je oplichters een stap voor wilt blijven, moet je verstandig omgaan met de technologie. Als je begrijpt wat mogelijk is, ben je beter gewapend om te begrijpen wat echt is en wat niet.

Facebook staat vooral vol met door AI gegenereerde afbeeldingen, dus het is een waardevolle vaardigheid om te begrijpen hoe je door AI gegenereerde namaak kunt herkennen. U moet altijd op uw hoede zijn voor online advertenties, of u deze nu op uw favoriete websites of op een sociaal netwerk ziet.

DALL-E

< p> Doe altijd onderzoek voordat je iets koopt, of het nu een stukje technologie is of een pakje zaden dat je op Facebook hebt gezien. Ironisch genoeg kun je het ook aan je favoriete chatbot vragen die zijn beweringen doet.


Posted

in

by

Tags:

Comments

Leave a Reply