Måndagen den 22 maj 2023 delade ett verifierat Twitter-konto som heter “Bloomberg Feed” en tweet som hävdade att det hade skett en explosion vid Pentagon, åtföljd av en bild. Om du undrar vad detta har att göra med artificiell intelligens (AI), var bilden en AI-genererad, med tweeten som snabbt blev viral och utlöste en kort börsnedgång. Saker och ting kunde ha varit mycket värre – en skarp påminnelse om farorna med artificiell intelligens.
Faror med artificiell intelligens
Det är inte bara falska nyheter vi behöver oroa oss för. Det finns många omedelbara eller potentiella risker förknippade med AI, från de som rör integritet och säkerhet till partiskhet och upphovsrättsfrågor. Vi kommer att dyka in i några av dessa faror med artificiell intelligens, se vad som görs för att mildra dem nu och i framtiden och fråga om riskerna med AI överväger fördelarna.
Innehållsförteckning
Falska nyheter
När deepfakes först landade, uppstod oro för att de skulle kunna användas med dåliga avsikter. Detsamma kan sägas om den nya vågen av AI-bildgeneratorer, som DALL-E 2, Midjourney eller DreamStudio. Den 28 mars 2023 blev falska AI-genererade bilder av påven Franciskus i en vit Balenciaga pufferjacka och njöt av flera äventyr, inklusive skateboard och poker, viralt. Om du inte studerade bilderna noggrant var det svårt att skilja dessa bilder från verkligheten.
Medan exemplet med påven utan tvekan var lite roligt, var bilden (och medföljande tweet) om Pentagon allt annat än. Falska bilder som genereras av AI har makten att skada rykten, avsluta äktenskap eller karriärer, skapa politisk oro och till och med starta krig om de används av fel personer – kort sagt, dessa AI-genererade bilder har potential att bli enormt farliga om de missbrukas.
Med AI-bildgeneratorer som nu är fritt tillgängliga för alla att använda, och Photoshop lägger till en AI-bildgenerator till sin populära programvara, är möjligheten att manipulera bilder och skapa falska nyheter större än någonsin.
Sekretess, säkerhet och hacking
Sekretess och säkerhet är också stora bekymmer när det kommer till riskerna med AI, med ett antal länder som redan förbjuder OpenAI:s ChatGPT. Italien har förbjudit modellen på grund av integritetsproblem, och tror att den inte följer den europeiska allmänna dataskyddsförordningen (GDPR), medan Kina, Nordkorea och Rysslands regeringar förbjöd den på grund av rädsla att den skulle sprida desinformation.
Så varför är vi så bekymrade över integritet när det kommer till AI? AI-appar och -system samlar in stora mängder data för att lära sig och göra förutsägelser. Men hur lagras och bearbetas denna data? Det finns en verklig risk för dataintrång, hacking och information som hamnar i fel händer.