La Commissione europea propone nuove regole per l’intelligenza artificiale

I potenziali benefici dell'IA per le nostre società sono molteplici, da un'assistenza medica più efficace a una migliore istruzione. Di fronte al rapido sviluppo tecnologico dell'IA, occorre un'azione unitaria dell'UE per sfruttare queste opportunità. La Commissione europea ha proposto a Bruxelles delle nuove regole e azioni volte a trasformare l'Europa nel polo mondiale per un'intelligenza artificiale (IA) affidabile. Queste regole hanno l'obiettivo di far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti.

Rispetto al piano coordinato del 2018, che ha gettato le basi per il coordinamento delle politiche in materia di IA e ha incoraggiato gli Stati membri a sviluppare strategie nazionali, questa revisione ha lo scopo di mantenere una politica agile e adeguata alla luce dell'evoluzione del contesto tecnologico, economico e politico in materia di IA.

Secondo Margrethe Vestager, Commissario europeo per l'agenda digitale, la fiducia nei prodotti dotati di intelligenza artificiale non è facoltativa, è indispensabile e queste regole rappresentano una svolta.

"Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l'UE rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all'innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell'UE."

Le regole sulla IA saranno proporzionate, flessibili, affronteranno i rischi specifici posti dai sistemi di IA e fisseranno i più elevati standard a livello mondiale con lo scopo di definire un'IA "antropocentrica, sostenibile, sicura, inclusiva e affidabile"

REGOLE E LIMITI IN BASE AL RISCHIO

Le nuove regole, si legge in una nota, saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, e seguono un approccio basato sul rischio.

  • Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti e i sistemi che consentono ai governi di attribuire un "punteggio sociale".
  • Rischio alto: sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:
    • in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
    • nell'istruzione o formazione professionale, poiché può determinare l'accesso all'istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
    • in componenti di sicurezza dei prodotti (ad esempio un'applicazione di IA utilizzata nella chirurgia assistita da robot);
    • nell'ambito dell'occupazione, della gestione dei lavoratori e dell'accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
    • in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
    • in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell'affidabilità delle prove);
    • nella gestione della migrazione, dell'asilo e del controllo delle frontiere (ad esempio, verifica dell'autenticità dei documenti di viaggio);
    • nell'amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

Tutti i sistemi che rientrano in queste tipologie saranno comunque soggetti a obblighi definiti "rigorosi" prima di poter essere immessi sul mercato. Dovranno infatti garantire, ad esempio, un'elevata qualità dei set di dati che alimentano il sistema, una documentazione dettagliata e appropriate misure di sorveglianza umana.

In particolare, inoltre, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Le eccezioni ammesse riguardano l'uso ai fini di attività di contrasto per la ricerca mirata di potenziali vittime specifiche di reato, compresi minori scomparsi, la risposta a una minaccia imminente di attacco terroristico o l'individuazione e l'identificazione degli autori di reati gravi.

  • Rischio limitato: ossia sistemi di IA con specifici obblighi di trasparenza. Per fare un esempio, gli utenti devono essere consapevoli di interagire con un macchina, ad esempio nella chat dove ci sono dei bot.
  • Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull'IA. In questo caso, infatti, i sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

A CHI SI APPLICA IL QUADRO GIURIDICO

Il quadro giuridico si applicherà ai soggetti pubblici e privati, all'interno e all'esterno dell'UE, a condizione che il sistema di IA sia immesso sul mercato dell'Unione o che il suo utilizzo abbia effetti su persone situate nell'UE. Può riguardare sia i fornitori (ad esempio, lo sviluppatore di uno strumento di screening dei CV) sia gli utenti di sistemi di IA ad alto rischio (ad esempio, una banca che acquista lo strumento di screening suddetto). Non si applica agli usi privati e non professionali.

Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione relative a un approccio europeo all'intelligenza artificiale e ai macchinari nell'ambito della procedura legislativa ordinaria. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l'UE.

Il TOP di gamma pi? piccolo? Samsung Galaxy S21, compralo al miglior prezzo da ePrice a 690 euro.


Posted

in

by

Tags: