L'intelligenza artificiale rappresenta un “rischio di estinzione”, avvertono i leader del settore

0
59

Scritto da Kevin Roose

Un gruppo di leader del settore è stato pianificando di avvertire martedì che la tecnologia di intelligenza artificiale che stanno costruendo potrebbe un giorno rappresentare una minaccia esistenziale per l'umanità e dovrebbe essere considerata un rischio sociale alla pari delle pandemie e delle guerre nucleari.

“Mitigare il rischio di estinzione da L'intelligenza artificiale dovrebbe essere una priorità globale insieme ad altri rischi su scala sociale, come le pandemie e la guerra nucleare”, si legge in una dichiarazione di una frase che dovrebbe essere rilasciata dal Center for AI Safety, un'organizzazione senza scopo di lucro. La lettera aperta è stata firmata da oltre 350 dirigenti, ricercatori e ingegneri che lavorano nell'IA.

I firmatari includevano alti dirigenti di tre delle principali società di intelligenza artificiale: Sam Altman, CEO di OpenAI; Demis Hassabis, CEO di Google DeepMind; e Dario Amodei, CEO di Anthropic.

Geoffrey Hinton e Yoshua Bengio, due dei tre ricercatori che hanno vinto un Turing Award per il loro lavoro pionieristico sulle reti neurali e sono spesso considerati i “padrini” del moderno movimento dell'IA , ha firmato la dichiarazione, così come altri eminenti ricercatori del settore. (Il terzo vincitore del Premio Turing, Yann LeCun, che guida gli sforzi di ricerca sull'IA di Meta, non aveva firmato fino a martedì.)

La dichiarazione arriva in un momento di crescente preoccupazione per i potenziali danni dell'IA. I recenti progressi nei cosiddetti modelli di linguaggio di grandi dimensioni – il tipo di sistema di intelligenza artificiale utilizzato da ChatGPT e altri chatbot – hanno sollevato timori che l'intelligenza artificiale possa presto essere utilizzata su larga scala per diffondere disinformazione e propaganda o che possa eliminare milioni di posti di lavoro da colletti bianchi .

Alla fine, alcuni credono che l'intelligenza artificiale potrebbe diventare abbastanza potente da creare sconvolgimenti su scala sociale entro pochi anni se non si fa nulla per rallentarla, anche se i ricercatori a volte si fermano prima di spiegare come ciò accadrebbe.

Pubblicità

Questi timori sono condivisi da numerosi leader del settore, mettendoli nella posizione insolita di sostenere che una tecnologia che stanno costruendo – e, in molti casi, stanno correndo furiosamente per costruire più velocemente dei loro concorrenti – pone gravi rischi e dovrebbe essere regolamentata più strettamente .

Questo mese, Altman, Hassabis e Amodei hanno incontrato il presidente Joe Biden e il vicepresidente Kamala Harris per parlare della regolamentazione dell'IA. In una testimonianza al Senato dopo l'incontro, Altman ha avvertito che i rischi dei sistemi IA avanzati erano abbastanza seri da giustificare l'intervento del governo e ha chiesto una regolamentazione dell'IA per i suoi potenziali danni.

Dan Hendrycks, direttore esecutivo del Center for AI Safety, ha dichiarato in un'intervista che la lettera aperta rappresentava un “coming-out” per alcuni leader del settore che avevano espresso preoccupazioni – ma solo in privato – sui rischi della tecnologia che stavano sviluppando .

Pubblicità

“C'è un'idea sbagliata molto comune, anche nella comunità dell'IA, secondo cui ci sono solo una manciata di condannati”, ha detto Hendrycks. “Ma, in realtà, molte persone in privato esprimerebbero preoccupazione per queste cose.”

Alcuni scettici sostengono che la tecnologia AI sia ancora troppo immatura per rappresentare una minaccia esistenziale. Quando si tratta dei sistemi di intelligenza artificiale odierni, si preoccupano più dei problemi a breve termine, come risposte distorte e errate, che dei pericoli a lungo termine.

Ma altri hanno sostenuto che l'intelligenza artificiale sta migliorando così rapidamente che ha già superato le prestazioni a livello umano in alcune aree e presto le supererà in altre. Dicono che la tecnologia ha mostrato segni di capacità e comprensione avanzate, dando origine a timori che “l'intelligenza generale artificiale”, o AGI, un tipo di intelligenza artificiale che può eguagliare o superare le prestazioni a livello umano in un'ampia varietà di compiti, potrebbe non essere lontano.

In un post sul blog della scorsa settimana, Altman e altri due dirigenti di OpenAI hanno proposto diversi modi per gestire in modo responsabile i potenti sistemi di intelligenza artificiale. Hanno chiesto la cooperazione tra i principali produttori di intelligenza artificiale, una ricerca più tecnica sui modelli di linguaggio di grandi dimensioni e la formazione di un'organizzazione internazionale per la sicurezza dell'IA, simile all'Agenzia internazionale per l'energia atomica, che cerca di controllare l'uso delle armi nucleari.

< p>Altman ha anche espresso sostegno per le regole che richiederebbero ai produttori di modelli di intelligenza artificiale di grandi dimensioni e all'avanguardia di registrarsi per una licenza rilasciata dal governo.

Pubblicità

A marzo, più di 1.000 tecnologi e ricercatori hanno firmato un'altra lettera aperta chiedendo una pausa di sei mesi sullo sviluppo dei più grandi modelli di intelligenza artificiale, citando preoccupazioni per “una corsa fuori controllo per sviluppare e implementare menti digitali sempre più potenti. ”

Quella lettera, che è stata organizzata da un'altra organizzazione non profit focalizzata sull'intelligenza artificiale, il Future of Life Institute, è stata firmata da Elon Musk e altri noti leader tecnologici, ma non ha avuto molte firme dai principali Laboratori di intelligenza artificiale.

Annuncio pubblicitario

La brevità della nuova dichiarazione del Center for AI Safety – solo 22 parole – aveva lo scopo di unire gli esperti di intelligenza artificiale che potrebbero non essere d'accordo sulla natura di rischi specifici o misure per impedire che tali rischi si verifichino ma che condividessero preoccupazioni generali su potenti sistemi di intelligenza artificiale, ha affermato Hendrycks.

“Non volevamo spingere per un menu molto ampio di 30 potenziali interventi”, ha affermato Hendrycks. “Quando ciò accade, diluisce il messaggio.”

Pubblicità

La dichiarazione è stata inizialmente condivisa con alcuni esperti di IA di alto profilo, tra cui Hinton, che ha lasciato il suo lavoro in Google questo mese per poter parlare più liberamente, ha affermato, dei potenziali danni dell'IA. Da lì, si è fatto strada verso molti dei principali laboratori di intelligenza artificiale, dove alcuni dipendenti si sono poi iscritti.

L'urgenza degli avvertimenti dei leader dell'IA è aumentata poiché milioni di persone si sono rivolte ai chatbot di intelligenza artificiale per l'intrattenimento, compagnia e maggiore produttività, e man mano che la tecnologia sottostante migliora rapidamente.

Leggi anche

La Camera degli Stati Uniti approva il tetto del debito affare come minaccia predefinita incombe

Il terrorista di LeT Abdul Salam Bhuttavi, che ha addestrato gli aggressori del 26/11, muore in …

La Germania ordina la chiusura di quattro consolati russi su cinque a…

I giovani cinesi non riescono a trovare lavoro. Xi Jinping dice di “mangiare l'amarezza”.

“Penso che se questa tecnologia va male, può andare molto male”, ha detto Altman alla sottocommissione del Senato. “Vogliamo lavorare con il governo per evitare che ciò accada.”