AllInfo

La Commissione europea propone nuove regole per l’intelligenza artificiale

I potenziali benefici dell'IA per le nostre società sono molteplici, da un'assistenza medica più efficace a una migliore istruzione. Di fronte al rapido sviluppo tecnologico dell'IA, occorre un'azione unitaria dell'UE per sfruttare queste opportunità. La Commissione europea ha proposto a Bruxelles delle nuove regole e azioni volte a trasformare l'Europa nel polo mondiale per un'intelligenza artificiale (IA) affidabile. Queste regole hanno l'obiettivo di far crescere la fiducia degli utenti in una nuova e versatile generazione di prodotti.

Rispetto al piano coordinato del 2018, che ha gettato le basi per il coordinamento delle politiche in materia di IA e ha incoraggiato gli Stati membri a sviluppare strategie nazionali, questa revisione ha lo scopo di mantenere una politica agile e adeguata alla luce dell'evoluzione del contesto tecnologico, economico e politico in materia di IA.

Secondo Margrethe Vestager, Commissario europeo per l'agenda digitale, la fiducia nei prodotti dotati di intelligenza artificiale non è facoltativa, è indispensabile e queste regole rappresentano una svolta.

"Definendo le norme possiamo spianare la strada a una tecnologia etica in tutto il mondo e garantire che l'UE rimanga competitiva. Le nostre regole saranno adeguate alle esigenze future e favorevoli all'innovazione e interverranno ove strettamente necessario: quando sono in gioco la sicurezza e i diritti fondamentali dei cittadini dell'UE."

Le regole sulla IA saranno proporzionate, flessibili, affronteranno i rischi specifici posti dai sistemi di IA e fisseranno i più elevati standard a livello mondiale con lo scopo di definire un'IA "antropocentrica, sostenibile, sicura, inclusiva e affidabile"

REGOLE E LIMITI IN BASE AL RISCHIO

Le nuove regole, si legge in una nota, saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di IA adeguata alle esigenze future, e seguono un approccio basato sul rischio.

Tutti i sistemi che rientrano in queste tipologie saranno comunque soggetti a obblighi definiti "rigorosi" prima di poter essere immessi sul mercato. Dovranno infatti garantire, ad esempio, un'elevata qualità dei set di dati che alimentano il sistema, una documentazione dettagliata e appropriate misure di sorveglianza umana.

In particolare, inoltre, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Le eccezioni ammesse riguardano l'uso ai fini di attività di contrasto per la ricerca mirata di potenziali vittime specifiche di reato, compresi minori scomparsi, la risposta a una minaccia imminente di attacco terroristico o l'individuazione e l'identificazione degli autori di reati gravi.

A CHI SI APPLICA IL QUADRO GIURIDICO

Il quadro giuridico si applicherà ai soggetti pubblici e privati, all'interno e all'esterno dell'UE, a condizione che il sistema di IA sia immesso sul mercato dell'Unione o che il suo utilizzo abbia effetti su persone situate nell'UE. Può riguardare sia i fornitori (ad esempio, lo sviluppatore di uno strumento di screening dei CV) sia gli utenti di sistemi di IA ad alto rischio (ad esempio, una banca che acquista lo strumento di screening suddetto). Non si applica agli usi privati e non professionali.

Il Parlamento europeo e gli Stati membri dovranno adottare le proposte della Commissione relative a un approccio europeo all'intelligenza artificiale e ai macchinari nell'ambito della procedura legislativa ordinaria. Una volta adottati, i regolamenti saranno direttamente applicabili in tutta l'UE.

Il TOP di gamma pi? piccolo? Samsung Galaxy S21, compralo al miglior prezzo da ePrice a 690 euro.

Exit mobile version