AI-tekniker kan störa många industrier, men åtminstone i de flesta fall kan vi se hur de 8217;ll finnas mer mycket användbart än skadligt i det långa loppet. Men dessa nya verktyg öppnar också många nya möjligheter för skändliga typer.
Natural Language AI för Supercharged Phishing-attacker
Att kunna förstå och producera naturligt mänskligt språk har varit ett av de främsta målen för AI-forskning från tidigaste dagarna. Idag har vi syntetisk röstproduktion, mycket sofistikerade chatbots, textgeneratorer för naturliga språk och många fler relaterade AI-drivna teknologier.
Dessa applikationer är perfekta för nätfiskeattacker, där hackare poserar som legitima enheter och deras representanter som ett sätt att få ut känslig information från människor. Med dessa nya tekniker kan du få AI-agenter att utge sig för att vara människor en-masse genom e-post, telefonsamtal, snabbmeddelanden eller varhelst människor annars pratar med varandra via ett datorsystem.
Till skillnad från det nätfiske vi känner till skulle detta vara som turboladdat “spear” nätfiske, där försöken riktas mot specifika individer med information om dem i synnerhet för att göra bluffen mer effektiv. Till exempel kan AI-programvaran posera som någons chef och begära att pengar ska betalas in på ett konto i en variant av nätfiske som kallas CEO fraud.
Deepfaked Social Engineering
Social ingenjörskonst är en praxis inom hacking som riktar sig mot svagheter i mänsklig psykologi och beteende för att komma runt tuffa tekniska säkerhetsåtgärder. Till exempel kan en hackare ringa en viktig persons sekreterare som utger sig för att vara saneringsarbetare och fråga dem om var deras skräp för närvarande slängs. Sedan beger sig brottslingen till den platsen för att leta efter kasserade dokument eller andra ledtrådar som kan sättas ihop för att skapa bedrifter.
System för djupinlärning som kan replikera ansikten och röster (så kallade deepfakes) har utvecklats till en punkt där de kan användas i realtid. Det finns tjänster som Podcastle’s Revoice och Voicebot AI där du kan skicka in exempel på din egen röst och sedan ha text-till-tal som låter precis som du. I princip kan teknik som denna användas för att klona vem som helsts röst. Då behöver du bara ringa eller videosamtal någon som utger sig för vem du vill, med offentliga personer som det enklaste målet av alla.
Smartare kodknäckning och automatisk upptäckt av sårbarheter
Det tar människor timmar och timmar att söka igenom kodrader för att leta efter sårbarheter, antingen för att fixa dem eller utnyttja dem. Nu har vi sett att maskininlärningsmodeller som ChatGPT både kan skriva kod och känna igen sårbarheter i inlämnad kod, vilket öppnar för möjligheten att AI skulle kunna skriva skadlig programvara förr snarare än senare.
Skadlig programvara som lär sig och anpassar sig genom maskininlärning
Den viktigaste styrkan med maskininlärning är hur den kan ta enorma mängder data och extrahera användbara regler och insikter från den. Det är rimligt att förvänta sig att framtida skadlig programvara kan dra nytta av detta allmänna koncept för att snabbt anpassa sig till motåtgärder.
Detta kan leda till en situation där både skadlig programvara och system mot skadlig programvara effektivt blir krigande maskininlärning system som snabbt driver varandra till högre nivåer av sofistikering.
Generativ AI för att skapa falska data
AI-teknik kan nu generera bilder, video, text och ljud till synes ur tomma luften. Dessa tekniker har nått den punkt där experter inte kan se att de är falska (åtminstone inte med ett ögonkast). Det betyder att du kan förvänta dig en flod av falska data på internet i framtiden.
Till exempel kan falska sociala medieprofiler just nu vara ganska lätta att upptäcka, så undvik catfishing-bedrägerier eller enkla botkampanjer att så desinformation har inte varit så svårt för en välinformerad publik. Men dessa nya AI-tekniker kan generera falska profiler som inte går att skilja från riktiga.
“Människor” med unika ansikten med genererade foton av hela deras falska liv, unik sammanhängande profilinformation och hela vän- och familjenätverk som består av andra falska personer. Alla har samtal med varandra precis som riktiga människor. Med nätverk av falska onlineagenter som dessa kan illvilliga aktörer genomföra olika bedrägerier och desinformationskampanjer.
RELATERAT: 5 tekniker som betyder att du aldrig kan tro något på Internet igen
Är AI både botemedlet och sjukdomen?
Det är oundvikligt att vissa människor kommer att försöka använda ny teknik av skadliga skäl. Det som gör den här nya generationens AI-teknik annorlunda är hur den snabbt går utöver mänsklig förmåga att upptäcka den.
Detta betyder, något ironiskt nog, att vårt bästa försvar mot dessa AI-förbättrade attackvägar kommer att vara andra AI-tekniker som bekämpar eld med eld. Detta tycks inte lämna dig något annat val än att se dem slå ut det och hoppas att de “goda killarna” komma ut som segrare. Ändå finns det flera saker du kan göra för att hålla dig skyddad online, undvika ransomware och upptäcka bedrägerier på populära plattformar som Facebook, Facebook Marketplace, PayPal och LinkedIn.
The Best Antivirus Software of 2023
Bästa antivirusprogramvaran överlag Bitdefender Internet Security Shop
Avira Free Security Shop
Bästa antivirusprogramvaran för Windows Malwarebytes Premium Shop
Intego Mac Internet Security X9 Shop
Bitdefender Mobile Security Shop LÄS NÄSTA
- › Du behöver en avbrottsfri strömförsörjning (UPS)
- › Hur slutar du följa någon på TikTok?
- › 8 överraskande saker du kan göra med ChatGPT
- › Nej, inkognitoläget kommer inte att skydda dig vid torrenting
- › Hur du återställer eller ändrar ditt Steam-lösenord
- › Windows 11 kommer att göra verifieringse-postmeddelanden mindre irriterande