Er kunstig intelligens (AI) farlig?

0
61

Mandag 22. mai 2023 delte en verifisert Twitter-konto kalt “Bloomberg Feed” en tweet som hevdet at det hadde vært en eksplosjon ved Pentagon, ledsaget av et bilde. Hvis du lurer på hva dette har å gjøre med kunstig intelligens (AI), var bildet et AI-generert, med tweeten som raskt ble viralt og utløste et kort fall i børsen. Ting kunne vært mye verre – en sterk påminnelse om farene ved kunstig intelligens.

Farer med kunstig intelligens

Det er ikke bare falske nyheter vi trenger å bekymre oss for. Det er mange umiddelbare eller potensielle risikoer forbundet med AI, fra de som gjelder personvern og sikkerhet til skjevheter og opphavsrettsproblemer. Vi vil dykke ned i noen av disse kunstig intelligens-farene, se hva som gjøres for å redusere dem nå og i fremtiden, og spørre om risikoen ved AI oppveier fordelene.

Innholdsfortegnelse

    Falske nyheter

    Da deepfakes først landet, oppsto det bekymringer om at de kunne brukes med dårlige hensikter. Det samme kan sies om den nye bølgen av AI-bildegeneratorer, som DALL-E 2, Midjourney eller DreamStudio. 28. mars 2023 gikk falske AI-genererte bilder av pave Frans i en hvit Balenciaga pufferjakke, og nyter flere eventyr, inkludert skateboarding og poker, viralt. Med mindre du studerte bildene nøye, var det vanskelig å skille disse bildene fra ekte vare.

    Mens eksemplet med paven utvilsomt var litt morsomt, var bildet (og medfølgende tweet) om Pentagon alt annet enn. Falske bilder generert av AI har makten til å skade omdømmet, avslutte ekteskap eller karrierer, skape politisk uro og til og med starte kriger hvis de brukes av feil personer – kort sagt, disse AI-genererte bildene har potensial til å bli enormt farlige hvis de misbrukes.

    Med AI-bildegeneratorer som nå er fritt tilgjengelig for alle å bruke, og Photoshop legger til en AI-bildegenerator til sin populære programvare, er muligheten til å manipulere bilder og lage falske nyheter større enn noen gang.

    Personvern, sikkerhet og hacking

    Personvern og sikkerhet er også store bekymringer når det gjelder risikoen ved AI, med en rekke land som allerede forbyr OpenAIs ChatGPT. Italia har forbudt modellen på grunn av personvernhensyn, og mener den ikke er i samsvar med den europeiske generelle databeskyttelsesforordningen (GDPR), mens Kina, Nord-Korea og Russlands myndigheter forbød den på grunn av frykt for at den ville spre feilinformasjon.

    Så hvorfor er vi så opptatt av personvern når det kommer til AI? AI-apper og -systemer samler store mengder data for å lære og lage spådommer. Men hvordan lagres og behandles disse dataene? Det er en reell risiko for datainnbrudd, hacking og informasjon som faller i feil hender.

    Det er ikke bare våre personlige data som er i faresonen heller. AI-hacking er en reell risiko – det har ikke skjedd ennå, men hvis de med ondsinnet hensikt kan hacke seg inn i AI-systemer, kan dette få alvorlige konsekvenser. For eksempel kan hackere kontrollere førerløse kjøretøy, hacke AI-sikkerhetssystemer for å få tilgang til svært sikre steder, og til og med hacke våpensystemer med AI-sikkerhet.

    Eksperter ved US Department of Defense's Defense Advanced Research Projects Agency (DARPA) anerkjenner disse risikoene og jobber allerede med DARPA’s Guaranteing AI Robustness Against Deception (GARD)-prosjektet, og takler problemet fra bunnen av. Prosjektets mål er å sikre at motstand mot hacking og tukling er innebygd i algoritmer og AI.

    Krenkelse av opphavsrett

    En annen av farene ved AI er brudd på opphavsretten. Dette høres kanskje ikke like alvorlig ut som noen andre farer vi har nevnt, men utviklingen av AI-modeller som GPT-4 setter alle i økt risiko for brudd.

    Hver gang du ber ChatGPT om å lage noe for deg – enten det er et blogginnlegg om reiser eller et nytt navn for din virksomhet — du mater den med informasjon som den deretter bruker til å svare på fremtidige spørsmål. Informasjonen den sender tilbake til deg, kan krenke andres opphavsrett, og det er derfor det er så viktig å bruke en plagiatdetektor og redigere alt innhold laget av AI før du publiserer det.

    Samfunns- og dataskjevhet

    AI er ikke menneskelig, så det kan ikke være partisk, ikke sant? Feil. Mennesker og data brukes til å trene AI-modeller og chatbots, noe som betyr at partiske data eller personligheter vil resultere i en partisk AI. Det er to typer skjevhet i AI: samfunnsskjevhet og dataskjevhet.

    Med mange skjevheter tilstede i hverdagssamfunnet, hva skjer når disse skjevhetene blir en del av AI? Programmererne som er ansvarlige for å trene modellen kan ha forventninger som er partiske, som deretter kommer inn i AI-systemer.

    Eller data som brukes til å trene og utvikle en AI kan være feil, partisk eller samlet inn i ond tro. Dette fører til dataskjevhet, som kan være like farlig som samfunnsskjevhet. For eksempel, hvis et system for ansiktsgjenkjenning trenes med hovedsakelig hvite menneskers ansikter, kan det slite med å gjenkjenne de fra minoritetsgrupper, og opprettholde undertrykkelsen.

    Roboter tar jobbene våre

    Utviklingen av chatbots som ChatGPT og Google Bard har åpnet for en helt ny bekymring rundt AI: Risikoen for at roboter tar jobbene våre. Vi ser allerede at forfattere i teknologibransjen blir erstattet av AI, programvareutviklere som er bekymret for at de vil miste jobben til roboter, og selskaper som bruker ChatGPT til å lage blogginnhold og innhold på sosiale medier i stedet for å ansette menneskelige forfattere.

    I følge World Economic Forums The Future of Jobs Report 2020, forventes AI å erstatte 85 millioner jobber over hele verden innen 2025. Selv om AI ikke erstatter forfattere, blir den allerede brukt som et verktøy av mange. De i jobber som står i fare for å bli erstattet av AI, må kanskje tilpasse seg for å overleve – for eksempel kan forfattere bli AI-prompte-ingeniører, noe som gjør dem i stand til å jobbe med verktøy som ChatGPT for innholdsskaping i stedet for å bli erstattet av disse modellene.

    Fremtidige potensielle AI-risikoer

    Dette er alle umiddelbare eller truende risikoer, men hva med noen av de mindre sannsynlige, men fortsatt mulige farene ved AI vi kan se i fremtiden? Disse inkluderer ting som AI som er programmert til å skade mennesker, for eksempel autonome våpen som er trent til å drepe under en krig.

    Så er det risikoen for at AI kan fokusere målrettet på sitt programmerte mål, utvikle destruktiv atferd mens den prøver å oppnå det målet for enhver pris, selv når mennesker prøver å stoppe dette fra å skje.

    Skynet lærte oss hva som skjer når en AI blir sansende. Men selv om Google-ingeniøren Blake Lemoine kan ha prøvd å overbevise alle om at LaMDA, Googles kunstig intelligente chatbot-generator var følsom tilbake i juni 2022, er det heldigvis ingen bevis hittil som tyder på at det er sant.

    Utfordringene ved AI-regulering

    Mandag 15. mai 202 deltok OpenAI-sjef Sam Altman på den første kongresshøringen om kunstig intelligens, og advarte: “Hvis denne teknologien går galt, kan det gå helt galt.” OpenAI CO gjorde det klart at han favoriserer regulering og brakte mange av sine egne ideer til høringen. Problemet er at AI utvikler seg med en slik hastighet at det er vanskelig å vite hvor man skal begynne med regulering.

    Kongressen ønsker å unngå å gjøre de samme feilene som ble gjort i begynnelsen av sosiale medier-æra, og et team av eksperter sammen med Senatets majoritetsleder Chuck Schumer jobber allerede med regelverk som vil kreve at selskaper avslører hvilke datakilder de brukte til å trene modeller og hvem trent dem. Det kan imidlertid ta litt tid før nøyaktig hvordan AI vil bli regulert blir klart, og ingen tvil om at det vil komme tilbakeslag fra AI-selskaper.

    Trusselen om en kunstig generell intelligens

    Det er også risiko for opprettelsen av en kunstig generell intelligens (AGI) som kan utføre alle oppgaver et menneske (eller dyr) kan utføre. Ofte nevnt i sci-fi-filmer, er vi sannsynligvis fortsatt flere tiår unna en slik skapelse, men hvis og når vi oppretter en AGI, kan det utgjøre en trussel mot menneskeheten.

    Mange offentlige personer støtter allerede troen på at AI utgjør en eksistensiell trussel mot mennesker, inkludert Stephen Hawking, Bill Gates og til og med tidligere Google-sjef Eric Schmidt, som uttalte: «Kunstig intelligens kan utgjøre eksistensiell risiko og regjeringer trenger å vite hvordan man sikrer at teknologien ikke blir misbrukt av onde mennesker.»

    Så, er kunstig intelligens farlig, og oppveier risikoen fordelene? Juryen er fortsatt ute på det, men vi ser allerede bevis på noen av risikoene rundt oss akkurat nå. Andre farer er mindre sannsynlige for å realiseres når som helst snart, om i det hele tatt. En ting er imidlertid klart: farene ved AI bør ikke undervurderes. Det er av ytterste viktighet at vi sikrer at AI er riktig regulert fra begynnelsen, for å minimere og forhåpentligvis redusere eventuelle fremtidige risikoer.