Mandag 22. mai 2023 delte en verifisert Twitter-konto kalt “Bloomberg Feed” en tweet som hevdet at det hadde vært en eksplosjon ved Pentagon, ledsaget av et bilde. Hvis du lurer på hva dette har å gjøre med kunstig intelligens (AI), var bildet et AI-generert, med tweeten som raskt ble viralt og utløste et kort fall i børsen. Ting kunne vært mye verre – en sterk påminnelse om farene ved kunstig intelligens.
Farer med kunstig intelligens
Det er ikke bare falske nyheter vi trenger å bekymre oss for. Det er mange umiddelbare eller potensielle risikoer forbundet med AI, fra de som gjelder personvern og sikkerhet til skjevheter og opphavsrettsproblemer. Vi vil dykke ned i noen av disse kunstig intelligens-farene, se hva som gjøres for å redusere dem nå og i fremtiden, og spørre om risikoen ved AI oppveier fordelene.
Innholdsfortegnelse
Falske nyheter
Da deepfakes først landet, oppsto det bekymringer om at de kunne brukes med dårlige hensikter. Det samme kan sies om den nye bølgen av AI-bildegeneratorer, som DALL-E 2, Midjourney eller DreamStudio. 28. mars 2023 gikk falske AI-genererte bilder av pave Frans i en hvit Balenciaga pufferjakke, og nyter flere eventyr, inkludert skateboarding og poker, viralt. Med mindre du studerte bildene nøye, var det vanskelig å skille disse bildene fra ekte vare.
Mens eksemplet med paven utvilsomt var litt morsomt, var bildet (og medfølgende tweet) om Pentagon alt annet enn. Falske bilder generert av AI har makten til å skade omdømmet, avslutte ekteskap eller karrierer, skape politisk uro og til og med starte kriger hvis de brukes av feil personer – kort sagt, disse AI-genererte bildene har potensial til å bli enormt farlige hvis de misbrukes.
Med AI-bildegeneratorer som nå er fritt tilgjengelig for alle å bruke, og Photoshop legger til en AI-bildegenerator til sin populære programvare, er muligheten til å manipulere bilder og lage falske nyheter større enn noen gang.
Personvern, sikkerhet og hacking
Personvern og sikkerhet er også store bekymringer når det gjelder risikoen ved AI, med en rekke land som allerede forbyr OpenAIs ChatGPT. Italia har forbudt modellen på grunn av personvernhensyn, og mener den ikke er i samsvar med den europeiske generelle databeskyttelsesforordningen (GDPR), mens Kina, Nord-Korea og Russlands myndigheter forbød den på grunn av frykt for at den ville spre feilinformasjon.
Så hvorfor er vi så opptatt av personvern når det kommer til AI? AI-apper og -systemer samler store mengder data for å lære og lage spådommer. Men hvordan lagres og behandles disse dataene? Det er en reell risiko for datainnbrudd, hacking og informasjon som faller i feil hender.