Op maandag 22 mei 2023 deelde een geverifieerd Twitter-account met de naam “Bloomberg Feed” een tweet waarin werd beweerd dat er een explosie was geweest in het Pentagon, vergezeld van een afbeelding. Als je je afvraagt wat dit te maken heeft met kunstmatige intelligentie (AI): de afbeelding was een door AI gegenereerde afbeelding, waarbij de tweet snel viraal ging en een korte beursdaling veroorzaakte. Het had veel erger kunnen zijn – een duidelijke herinnering aan de gevaren van kunstmatige intelligentie.
Gevaren van kunstmatige intelligentie
Het is niet alleen nepnieuws waar we ons zorgen over moeten maken. Er zijn veel directe of potentiële risico's verbonden aan AI, van die met betrekking tot privacy en veiligheid tot vooringenomenheid en auteursrechtkwesties. We zullen ingaan op enkele van deze gevaren van kunstmatige intelligentie, kijken wat er wordt gedaan om ze nu en in de toekomst te verminderen, en vragen of de risico's van AI opwegen tegen de voordelen.
Inhoudsopgave
Nepnieuws
Toen deepfakes voor het eerst landden, ontstond er bezorgdheid dat ze met kwade bedoelingen konden worden gebruikt. Hetzelfde kan gezegd worden voor de nieuwe golf van AI-beeldgeneratoren, zoals DALL-E 2, Midjourney of DreamStudio. Op 28 maart 2023 gingen nep-AI-gegenereerde afbeeldingen van paus Franciscus in een wit Balenciaga-pufferjack terwijl hij verschillende avonturen beleefde, waaronder skateboarden en pokeren, viraal. Tenzij je de afbeeldingen goed bestudeerde, was het moeilijk om deze afbeeldingen van echt te onderscheiden.
Waar het voorbeeld met de paus ongetwijfeld een beetje grappig was, was het beeld (en bijbehorende tweet) over het Pentagon allesbehalve. Nepafbeeldingen die door AI zijn gegenereerd, hebben de kracht om reputaties te schaden, huwelijken of carrières te beëindigen, politieke onrust te creëren en zelfs oorlogen te beginnen als ze door de verkeerde mensen worden gebruikt. Kortom, deze door AI gegenereerde afbeeldingen kunnen enorm gevaarlijk zijn als ze worden misbruikt.
Nu AI-beeldgeneratoren nu vrij beschikbaar zijn voor iedereen en Photoshop een AI-beeldgenerator toevoegt aan zijn populaire software, is de mogelijkheid om afbeeldingen te manipuleren en nepnieuws te creëren groter dan ooit.
Privacy, beveiliging en hacken
Privacy en veiligheid zijn ook grote zorgen als het gaat om de risico's van AI, met een aantal landen die OpenAI's ChatGPT al verbieden. Italië heeft het model verboden vanwege bezorgdheid over de privacy, in de overtuiging dat het niet voldoet aan de Europese Algemene Verordening Gegevensbescherming (AVG), terwijl de regeringen van China, Noord-Korea en Rusland het hebben verboden uit angst dat het verkeerde informatie zou verspreiden.
Dus waarom zijn we zo bezorgd over privacy als het gaat om AI? AI-apps en -systemen verzamelen grote hoeveelheden gegevens om te leren en voorspellingen te doen. Maar hoe worden deze gegevens opgeslagen en verwerkt? Er is een reëel risico op datalekken, hacking en informatie die in verkeerde handen valt.
Het zijn ook niet alleen onze persoonlijke gegevens die gevaar lopen. AI-hacking is een reëel risico — het is nog niet gebeurd, maar als kwaadwillenden AI-systemen zouden kunnen hacken, kan dit ernstige gevolgen hebben. Hackers kunnen bijvoorbeeld voertuigen zonder bestuurder besturen, AI-beveiligingssystemen hacken om toegang te krijgen tot zeer veilige locaties en zelfs wapensystemen hacken met AI-beveiliging.
Deskundigen van het Defense Advanced Research Projects Agency (DARPA) van het Amerikaanse Ministerie van Defensie erkennen deze risico's en werken al aan het DARPA's Guaranteeing AI Robustness Against Deception (GARD)-project, waarbij het probleem vanaf de grond op. Het doel van het project is ervoor te zorgen dat weerstand tegen hacken en sabotage wordt ingebouwd in algoritmen en AI.
Inbreuk op auteursrechten
Een ander gevaar van AI is inbreuk op het auteursrecht. Dit klinkt misschien niet zo ernstig als sommige andere gevaren die we hebben genoemd, maar door de ontwikkeling van AI-modellen zoals GPT-4 loopt iedereen een verhoogd risico op inbreuk.