Normative

L’Unione Europea approva definitivamente l’Artificial Intelligence Act



Indirizzo copiato

Una volta firmato dai presidenti del Parlamento europeo e del Consiglio, il provvedimento legislativo verrà pubblicato sulla Gazzetta Ufficiale dell’UE nei giorni successivi, entrando in vigore venti giorni dopo tale pubblicazione. Il regolamento sarà applicabile due anni dopo la sua entrata in vigore, con alcune deroghe per disposizioni specifiche

Pubblicato il 21 mag 2024



AI Act

Il 21 maggio, il Consiglio dell’Unione Europea ha concesso l’approvazione definitiva all’Artificial Intelligence Act (AI Act), pionieristica azione globale che mira a standardizzare le regole sull’intelligenza artificiale. Una volta firmato dai presidenti del Parlamento europeo e del Consiglio, il provvedimento legislativo verrà pubblicato sulla Gazzetta Ufficiale dell’UE nei giorni successivi, entrando in vigore venti giorni dopo tale pubblicazione. Il regolamento sarà applicabile due anni dopo la sua entrata in vigore, con alcune deroghe per disposizioni specifiche.

AI Act, prima legge al mondo sull’intelligenza artificiale

La legge faro adotta un approccio “basato sul rischio”, ovvero più alto è il rischio di arrecare danni alla società, più rigide saranno le norme. Come evidenziato dal Consiglio UE in una nota, l’AI Act è la prima legge del suo genere al mondo e potrebbe stabilire uno standard globale per la regolamentazione dell’intelligenza artificiale. L’obiettivo della nuova legge è incentivare lo sviluppo e l’adozione di sistemi di AI sicuri e affidabili nel mercato unico dell’UE da parte di attori sia privati che pubblici.

Al contempo, mira a garantire il rispetto dei diritti fondamentali dei cittadini dell’UE e a stimolare gli investimenti e l’innovazione nel campo dell’intelligenza artificiale in Europa. La legge sull’AI si applica solo ad ambiti soggetti al diritto dell’UE e prevede esenzioni, ad esempio, per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché per scopi di ricerca.

I commenti

Come evidenziato in una nota dal segretario di Stato belga per la digitalizzazione, Mathieu Michel, l’adozione della legge sull’AI “rappresenta una pietra miliare significativa per l’Unione europea” e affronta “una sfida tecnologica globale che crea anche opportunità per le nostre società ed economie”. Secondo il rappresentante del governo belga (Paese che detiene la presidenza di turno del Consiglio UE), con l’AI Act, “l’Europa sottolinea l’importanza della fiducia, della trasparenza e della responsabilità quando si ha a che fare con le nuove tecnologie, garantendo allo stesso tempo che questa tecnologia in rapida evoluzione possa prosperare e stimolare l’innovazione europea”.

L’approvazione definitiva è avvenuta durante la riunione dei ministri europei incaricati per i temi sul digitale. In un post sul suo profilo X (ex Twitter), il commissario europeo per il Mercato interno, Thierry Breton, ha sottolineato che i 27 ministri hanno adottato la legge all’unanimità. “L’Europa parla con una sola voce sull’intelligenza artificiale”, ha scritto Breton.

AI Act, categorie di AI in base al rischio

La legge categorizza diversi tipi di intelligenza artificiale in base al rischio. I sistemi di AI considerati a rischio limitato saranno soggetti a obblighi di trasparenza minimi, mentre i sistemi di AI ad alto rischio saranno autorizzati, ma soggetti a una serie di requisiti e obblighi per ottenere l’accesso al mercato dell’UE. I sistemi di intelligenza artificiale come la manipolazione cognitivo comportamentale e il punteggio sociale saranno proibiti nell’UE in quanto il loro rischio è considerato inaccettabile. La legge vieta anche l’uso dell’intelligenza artificiale per la polizia predittiva basata sulla profilazione e i sistemi che utilizzano dati biometrici per classificare le persone in base a categorie specifiche come razza, religione o orientamento sessuale.

La legge sull’IA affronta anche l’uso di modelli di intelligenza artificiale per scopi generali (GPAI). I modelli GPAI che non presentano rischi sistemici saranno soggetti a alcuni requisiti limitati, ad esempio per quanto riguarda la trasparenza, ma quelli con rischi sistemici dovranno rispettare regole più severe.

Articoli correlati

Articolo 1 di 4