Is kunstmatige intelligentie (AI) gevaarlijk?

0
59

Op maandag 22 mei 2023 deelde een geverifieerd Twitter-account met de naam “Bloomberg Feed” een tweet waarin werd beweerd dat er een explosie was geweest in het Pentagon, vergezeld van een afbeelding. Als je je afvraagt ​​wat dit te maken heeft met kunstmatige intelligentie (AI): de afbeelding was een door AI gegenereerde afbeelding, waarbij de tweet snel viraal ging en een korte beursdaling veroorzaakte. Het had veel erger kunnen zijn – een duidelijke herinnering aan de gevaren van kunstmatige intelligentie.

Gevaren van kunstmatige intelligentie

Het is niet alleen nepnieuws waar we ons zorgen over moeten maken. Er zijn veel directe of potentiële risico's verbonden aan AI, van die met betrekking tot privacy en veiligheid tot vooringenomenheid en auteursrechtkwesties. We zullen ingaan op enkele van deze gevaren van kunstmatige intelligentie, kijken wat er wordt gedaan om ze nu en in de toekomst te verminderen, en vragen of de risico's van AI opwegen tegen de voordelen.

Inhoudsopgave

    Nepnieuws

    Toen deepfakes voor het eerst landden, ontstond er bezorgdheid dat ze met kwade bedoelingen konden worden gebruikt. Hetzelfde kan gezegd worden voor de nieuwe golf van AI-beeldgeneratoren, zoals DALL-E 2, Midjourney of DreamStudio. Op 28 maart 2023 gingen nep-AI-gegenereerde afbeeldingen van paus Franciscus in een wit Balenciaga-pufferjack terwijl hij verschillende avonturen beleefde, waaronder skateboarden en pokeren, viraal. Tenzij je de afbeeldingen goed bestudeerde, was het moeilijk om deze afbeeldingen van echt te onderscheiden.

    Waar het voorbeeld met de paus ongetwijfeld een beetje grappig was, was het beeld (en bijbehorende tweet) over het Pentagon allesbehalve. Nepafbeeldingen die door AI zijn gegenereerd, hebben de kracht om reputaties te schaden, huwelijken of carrières te beëindigen, politieke onrust te creëren en zelfs oorlogen te beginnen als ze door de verkeerde mensen worden gebruikt. Kortom, deze door AI gegenereerde afbeeldingen kunnen enorm gevaarlijk zijn als ze worden misbruikt.

    Nu AI-beeldgeneratoren nu vrij beschikbaar zijn voor iedereen en Photoshop een AI-beeldgenerator toevoegt aan zijn populaire software, is de mogelijkheid om afbeeldingen te manipuleren en nepnieuws te creëren groter dan ooit.

    Privacy, beveiliging en hacken

    Privacy en veiligheid zijn ook grote zorgen als het gaat om de risico's van AI, met een aantal landen die OpenAI's ChatGPT al verbieden. Italië heeft het model verboden vanwege bezorgdheid over de privacy, in de overtuiging dat het niet voldoet aan de Europese Algemene Verordening Gegevensbescherming (AVG), terwijl de regeringen van China, Noord-Korea en Rusland het hebben verboden uit angst dat het verkeerde informatie zou verspreiden.

    Dus waarom zijn we zo bezorgd over privacy als het gaat om AI? AI-apps en -systemen verzamelen grote hoeveelheden gegevens om te leren en voorspellingen te doen. Maar hoe worden deze gegevens opgeslagen en verwerkt? Er is een reëel risico op datalekken, hacking en informatie die in verkeerde handen valt.

    Het zijn ook niet alleen onze persoonlijke gegevens die gevaar lopen. AI-hacking is een reëel risico — het is nog niet gebeurd, maar als kwaadwillenden AI-systemen zouden kunnen hacken, kan dit ernstige gevolgen hebben. Hackers kunnen bijvoorbeeld voertuigen zonder bestuurder besturen, AI-beveiligingssystemen hacken om toegang te krijgen tot zeer veilige locaties en zelfs wapensystemen hacken met AI-beveiliging.

    Deskundigen van het Defense Advanced Research Projects Agency (DARPA) van het Amerikaanse Ministerie van Defensie erkennen deze risico's en werken al aan het DARPA's Guaranteeing AI Robustness Against Deception (GARD)-project, waarbij het probleem vanaf de grond op. Het doel van het project is ervoor te zorgen dat weerstand tegen hacken en sabotage wordt ingebouwd in algoritmen en AI.

    Inbreuk op auteursrechten

    Een ander gevaar van AI is inbreuk op het auteursrecht. Dit klinkt misschien niet zo ernstig als sommige andere gevaren die we hebben genoemd, maar door de ontwikkeling van AI-modellen zoals GPT-4 loopt iedereen een verhoogd risico op inbreuk.

    Elke keer dat je ChatGPT vraagt ​​om iets voor je te maken – of dat nu een blogpost over reizen is of een nieuwe naam voor je bedrijf – geef je het informatie die het vervolgens gebruikt om toekomstige vragen te beantwoorden. De informatie die het naar u terugstuurt, kan inbreuk maken op het auteursrecht van iemand anders. Daarom is het zo belangrijk om een ​​plagiaatdetector te gebruiken en alle door AI gemaakte inhoud te bewerken voordat u deze publiceert.

    Maatschappelijke en databias

    AI is geen mens, dus het kan niet bevooroordeeld zijn, toch? Fout. Mensen en data worden gebruikt om AI-modellen en chatbots te trainen, wat betekent dat bevooroordeelde data of persoonlijkheden zullen resulteren in een bevooroordeelde AI. Er zijn twee soorten bias in AI: maatschappelijke bias en data bias.

    Wat gebeurt er als deze vooroordelen onderdeel worden van AI, gezien de vele vooroordelen die aanwezig zijn in de dagelijkse samenleving? De programmeurs die verantwoordelijk zijn voor het trainen van het model kunnen vertekende verwachtingen hebben, die vervolgens hun weg vinden naar AI-systemen.

    Of gegevens die worden gebruikt om een ​​AI te trainen en te ontwikkelen, kunnen onjuist, bevooroordeeld of te kwader trouw verzameld zijn. Dit leidt tot databias, wat net zo gevaarlijk kan zijn als maatschappelijke bias. Als een systeem voor gezichtsherkenning bijvoorbeeld wordt getraind met voornamelijk gezichten van blanke mensen, kan het moeite hebben om die van minderheidsgroepen te herkennen, waardoor de onderdrukking voortduurt.

    Robots nemen ons werk over

    De ontwikkeling van chatbots zoals ChatGPT en Google Bard heeft geleid tot een geheel nieuwe zorg rond AI: het risico dat robots onze banen overnemen. We zien nu al dat schrijvers in de technische industrie worden vervangen door AI, softwareontwikkelaars die bang zijn dat ze hun baan zullen verliezen aan bots, en bedrijven die ChatGPT gebruiken om bloginhoud en inhoud op sociale media te maken in plaats van menselijke schrijvers in te huren.

    Volgens het The Future of Jobs Report 2020 van het World Economic Forum zal AI naar verwachting tegen 2025 wereldwijd 85 miljoen banen vervangen. Zelfs als AI schrijvers niet vervangt, wordt het al door velen als hulpmiddel gebruikt. Degenen in banen die het risico lopen door AI te worden vervangen, moeten zich misschien aanpassen om te overleven. Schrijvers kunnen bijvoorbeeld AI-prompt-engineers worden, waardoor ze kunnen werken met tools zoals ChatGPT voor het maken van inhoud in plaats van te worden vervangen door deze modellen.

    Toekomstige potentiële AI-risico's

    Dit zijn allemaal onmiddellijke of dreigende risico's, maar hoe zit het met enkele van de minder waarschijnlijke maar nog steeds mogelijke gevaren van AI die we in de toekomst zouden kunnen zien? Deze omvatten zaken als AI die is geprogrammeerd om mensen schade toe te brengen, bijvoorbeeld autonome wapens die zijn getraind om te doden tijdens een oorlog.

    Dan bestaat het risico dat AI zich doelbewust concentreert op zijn geprogrammeerde doel, destructief gedrag ontwikkelt terwijl het koste wat het kost probeert dat doel te bereiken, zelfs wanneer mensen proberen dit te voorkomen.

    Skynet heeft ons geleerd wat er gebeurt als een AI bewust wordt. Hoewel Google-ingenieur Blake Lemoine misschien heeft geprobeerd iedereen ervan te overtuigen dat LaMDA, de kunstmatig intelligente chatbotgenerator van Google, in juni 2022 bewust was, is er tot nu toe gelukkig geen bewijs dat suggereert dat dit waar is.

    De uitdagingen van AI-regulering

    Op maandag 15 mei 202 woonde Sam Altman, CEO van OpenAI, de eerste congreshoorzitting over kunstmatige intelligentie bij en waarschuwde: “Als deze technologie fout gaat, kan het behoorlijk fout gaan.” De CO van OpenAI maakte duidelijk dat hij voorstander is van regulering en bracht veel van zijn eigen ideeën naar de hoorzitting. Het probleem is dat AI zo snel evolueert dat het moeilijk is om te weten waar te beginnen met regelgeving.

    Het congres wil voorkomen dat dezelfde fouten worden gemaakt die aan het begin van het socialemediatijdperk zijn gemaakt, en een team van experts werkt samen met de leider van de meerderheid in de senaat, Chuck Schumer, al aan voorschriften die bedrijven zouden verplichten te onthullen welke gegevensbronnen ze gebruikten om modellen te trainen en wie heb ze getraind. Het kan echter enige tijd duren voordat duidelijk wordt hoe AI precies zal worden gereguleerd, en er zal ongetwijfeld een terugslag komen van AI-bedrijven.

    De dreiging van kunstmatige algemene intelligentie

    Er is ook het risico van de creatie van een kunstmatige algemene intelligentie (AGI) die alle taken zou kunnen uitvoeren die een mens (of dier) zou kunnen uitvoeren. Vaak genoemd in sciencefictionfilms, zijn we waarschijnlijk nog tientallen jaren verwijderd van een dergelijke creatie, maar als en wanneer we een AGI creëren, kan dit een bedreiging vormen voor de mensheid.

    Veel publieke figuren onderschrijven al de overtuiging dat AI een existentiële bedreiging vormt voor de mens, waaronder Stephen Hawking, Bill Gates en zelfs voormalig Google-CEO Eric Schmidt, die stelden: “Kunstmatige intelligentie kan existentiële risico's vormen en regeringen moeten weten hoe ze ervoor kunnen zorgen dat de technologie niet wordt misbruikt door slechte mensen.”

    Dus, is kunstmatige intelligentie gevaarlijk en wegen de risico's op tegen de voordelen? De jury is daar nog niet over uit, maar we zien nu al bewijs van enkele van de risico's om ons heen. Andere gevaren zullen zich minder snel of helemaal niet voordoen. Eén ding is echter duidelijk: de gevaren van AI mogen niet worden onderschat. Het is van het grootste belang dat we ervoor zorgen dat AI vanaf het begin goed wordt gereguleerd, om eventuele toekomstige risico's te minimaliseren en hopelijk te beperken.