Geschreven door Kevin Roose
Een groep marktleiders werd van plan om dinsdag te waarschuwen dat de kunstmatige-intelligentietechnologie die ze bouwen op een dag een existentiële bedreiging voor de mensheid kan vormen en moet worden beschouwd als een maatschappelijk risico dat vergelijkbaar is met pandemieën en nucleaire oorlogen.
“Het risico van uitsterven beperken door AI zou een wereldwijde prioriteit moeten zijn naast andere risico's op maatschappelijke schaal, zoals pandemieën en een nucleaire oorlog”, luidt een verklaring van één zin die naar verwachting zal worden vrijgegeven door het Center for AI Safety, een non-profitorganisatie. De open brief is ondertekend door meer dan 350 leidinggevenden, onderzoekers en ingenieurs werkzaam in AI.
Onder de ondertekenaars bevonden zich topmanagers van drie van de toonaangevende AI-bedrijven: Sam Altman, CEO van OpenAI; Demis Hassabis, CEO van Google DeepMind; en Dario Amodei, CEO van Anthropic.
Geoffrey Hinton en Yoshua Bengio, twee van de drie onderzoekers die een Turing Award hebben gewonnen voor hun pionierswerk op het gebied van neurale netwerken en die vaak worden beschouwd als “peetvaders” van de moderne AI-beweging , ondertekenden de verklaring, net als andere vooraanstaande onderzoekers in het veld. (De derde Turing Award-winnaar, Yann LeCun, die Meta's AI-onderzoeksinspanningen leidt, had dinsdag nog niet getekend.)
De verklaring komt op een moment van groeiende bezorgdheid over de mogelijke schade van AI. Recente ontwikkelingen in zogenaamde grote taalmodellen – het type AI-systeem dat wordt gebruikt door ChatGPT en andere chatbots – hebben de vrees gewekt dat AI binnenkort op grote schaal kan worden gebruikt om verkeerde informatie en propaganda te verspreiden, of dat het miljoenen witteboordenbanen zou kunnen elimineren .
Volgens sommigen zou AI uiteindelijk krachtig genoeg kunnen worden om binnen een paar jaar maatschappelijke ontwrichtingen te veroorzaken als er niets wordt gedaan om het te vertragen, hoewel onderzoekers soms nalaten uit te leggen hoe dat zou gebeuren.
Advertentie
Deze angsten worden gedeeld door tal van marktleiders, waardoor ze in de ongebruikelijke positie komen dat ze beweren dat een technologie die ze bouwen – en in veel gevallen woedend racen om sneller te bouwen dan hun concurrenten – ernstige risico's met zich meebrengt en strakker moet worden gereguleerd .
Deze maand hadden Altman, Hassabis en Amodei een ontmoeting met president Joe Biden en vicepresident Kamala Harris om te praten over AI-regulering. In een getuigenis van de Senaat na de vergadering waarschuwde Altman dat de risico's van geavanceerde AI-systemen ernstig genoeg waren om overheidsingrijpen te rechtvaardigen en riep hij op tot regulering van AI voor de mogelijke schade ervan.
Dan Hendrycks, uitvoerend directeur van het Center for AI Safety, zei in een interview dat de open brief een “coming-out” was voor sommige marktleiders die hun zorgen hadden geuit – maar alleen privé – over de risico's van de technologie die ze aan het ontwikkelen waren .
Advertentie
“Er bestaat een veel voorkomende misvatting, zelfs in de AI-gemeenschap, dat er maar een handvol doomers zijn”, zei Hendrycks. “Maar in feite zouden veel mensen privé hun zorgen over deze dingen uiten.”
Sommige sceptici beweren dat AI-technologie nog te onvolwassen is om een existentiële bedreiging te vormen. Als het gaat om de huidige AI-systemen, maken ze zich meer zorgen over problemen op korte termijn, zoals bevooroordeelde en onjuiste reacties, dan over gevaren op langere termijn.
Maar anderen hebben betoogd dat AI zo snel aan het verbeteren is dat het op sommige gebieden de prestaties van mensen al heeft overtroffen, en binnenkort op andere gebieden. Ze zeggen dat de technologie tekenen van geavanceerde mogelijkheden en begrip heeft getoond, wat aanleiding geeft tot de vrees dat “kunstmatige algemene intelligentie” of AGI, een type AI dat de prestaties op menselijk niveau bij een breed scala aan taken kan evenaren of overtreffen, misschien niet wordt gebruikt. ver weg.
In een blogpost vorige week stelden Altman en twee andere OpenAI-managers verschillende manieren voor waarop krachtige AI-systemen op verantwoorde wijze kunnen worden beheerd. Ze riepen op tot samenwerking tussen de leidende AI-makers, meer technisch onderzoek naar grote taalmodellen en de vorming van een internationale AI-veiligheidsorganisatie, vergelijkbaar met de International Atomic Energy Agency, die het gebruik van kernwapens probeert te beheersen.
< p>Altman heeft ook zijn steun uitgesproken voor regels die makers van grote, geavanceerde AI-modellen zouden verplichten zich te registreren voor een door de overheid uitgegeven licentie.
Advertentie
In maart ondertekenden meer dan 1.000 technologen en onderzoekers nog een open brief waarin werd opgeroepen tot een pauze van zes maanden bij de ontwikkeling van de grootste AI-modellen, daarbij verwijzend naar bezorgdheid over “een uit de hand gelopen race om steeds krachtigere digitale geesten te ontwikkelen en in te zetten. ”
Die brief, die was georganiseerd door een andere op AI gerichte non-profitorganisatie, het Future of Life Institute, was ondertekend door Elon Musk en andere bekende technologieleiders, maar had niet veel handtekeningen van de leidende AI-labs.
Advertentie
De beknoptheid van de nieuwe verklaring van het Center for AI Safety — slechts 22 woorden — was bedoeld om AI-experts te verenigen die het misschien oneens zijn over de aard van specifieke risico's of stappen om te voorkomen dat die risico's zich voordoen, maar die algemene zorgen deelden over krachtige AI-systemen, zei Hendrycks.
“We wilden niet aandringen op een heel groot menu van 30 mogelijke interventies”, zei Hendrycks. “Als dat gebeurt, verwatert het de boodschap.”
Advertentie
De verklaring werd in eerste instantie gedeeld met een paar spraakmakende AI-experts, waaronder Hinton, die deze maand zijn baan bij Google opzegde, zodat hij vrijer kon spreken, zei hij, over de mogelijke gevaren van AI. Van daaruit vond het zijn weg naar verschillende van de grote AI-labs, waar enkele werknemers zich vervolgens aanmeldden.
De urgentie van de waarschuwingen van AI-leiders is toegenomen nu miljoenen mensen zich tot AI-chatbots hebben gewend voor entertainment, gezelschap en verhoogde productiviteit, en naarmate de onderliggende technologie in een rap tempo verbetert.
Lees ook
US House overschrijdt schuldenplafond deal als standaarddreiging doemt op
Laat terrorist Abdul Salam Bhuttavi, die aanvallers van 26/11 trainde, sterft in … -ingo-joseph-109629.jpg?resize=450,250″ />
Duitsland beveelt sluiting van vier van de vijf Russische consulaten in tit-for-…
De Chinese jongeren kunnen geen baan vinden. Xi Jinping zegt 'eet bitterheid'.
“Ik denk dat als deze technologie fout gaat, het behoorlijk fout kan gaan”, zei Altman tegen de subcommissie van de Senaat. “We willen samenwerken met de overheid om dat te voorkomen.”