Normative

AI Act: c’è l’accordo fra gli eurodeputati

Il Parlamento europeo si sta avvicinando alla formalizzazione della sua posizione sul dossier, dopo che i legislatori UE hanno raggiunto un accordo politico. Il voto in commissione è previsto per l’11 maggio e quello in plenaria avverrà a metà giugno

Pubblicato il 28 Apr 2023

europarlamento

Ci sono voluti mesi di trattative affinché i membri del Parlamento europeo appianassero le loro divergenze e raggiungessero, lo scorso 27 aprile, un accordo politico provvisorio sul primo regolamento sull’intelligenza artificiale al mondo, l’AI Act.

Il testo potrebbe ancora essere soggetto a piccoli aggiustamenti a livello tecnico prima del voto in commissione, previsto per l’11 maggio; si prevede che il voto in plenaria avverrà a metà giugno.

L’AI Act è una proposta legislativa volta a regolamentare l’intelligenza artificiale in base al suo potenziale di rischio. Fino all’ultimo, i legislatori dell’UE hanno negoziato su alcune delle parti più controverse della proposta.

AI Act: norme più severe per sistemi di AI senza uno scopo preciso

Il modo in cui trattare i sistemi di intelligenza artificiale che non hanno uno scopo specifico è stato un argomento di discussione molto acceso. Gli eurodeputati hanno confermato le precedenti proposte di imporre obblighi più severi ai foundation model, una sottocategoria dell’AI generica che comprende anche ChatGPT (già oggetto di un provvedimento dell’Autorità Garante della privacy in Italia).

L’unica modifica significativa dell’ultimo minuto ha riguardato i modelli di AI generativa, che dovranno essere progettati e sviluppati nel rispetto del diritto dell’UE e dei diritti fondamentali, compresa la libertà di espressione.

Quali applicazioni di AI vietare

Un altro tema politicamente sensibile è stato quello del tipo di applicazioni di AI da vietare perché considerate un rischio inaccettabile.

Nella seduta di metà aprile era stata ventilata l’idea di vietare gli strumenti basati sull’AI per il monitoraggio generale delle comunicazioni interpersonali. La proposta è stata abbandonata in seguito all’opposizione del Partito Popolare Europeo (PPE), conservatore.

In cambio, i legislatori di centro-destra hanno dovuto accettare un’estensione del divieto sui software di identificazione biometrica. Inizialmente vietato solo per l’uso in tempo reale, questo software di riconoscimento potrebbe essere utilizzato ex-post solo per reati gravi e con l’approvazione preventiva del giudice.

Il PPE, che ha al suo interno una fazione favorevole a regolamenti più stringenti, ha accettato di non presentare voti “chiave” che potrebbero minacciare il suo sostegno all’intero dossier, ma potrebbe comunque tentare di modificare il divieto biometrico ex-post.

Il regolamento sull’AI vieta anche la manipolazione “intenzionale”. Il termine “intenzionale” è stato oggetto di dibattito in quanto l’intenzionalità potrebbe essere difficile da dimostrare, ma è stato comunque mantenuto in quanto gli eurodeputati non volevano gettare la rete troppo larga.

L’uso del software di riconoscimento delle emozioni basato sull’intelligenza artificiale è vietato nei settori dell’applicazione della legge, della gestione delle frontiere, del lavoro e dell’istruzione.

Il divieto di controllo predittivo imposto dai legislatori dell’UE è stato esteso dai reati penali a quelli amministrativi, sulla base dello scandalo olandese degli assegni familiari, che ha visto migliaia di famiglie incriminate erroneamente per frode a causa di un algoritmo di flusso.

AI Act: la classificazione dei modelli di AI considerati ad alto rischio

La proposta iniziale classificava automaticamente come ad alto rischio le soluzioni di AI che rientrassero nelle aree critiche e nei casi d’uso elencati nell’Allegato III, il che significava che i fornitori avrebbero dovuto rispettare un regime più severo, che comprendeva requisiti sulla gestione del rischio, sulla trasparenza e sulla governance dei dati.

Gli eurodeputati hanno introdotto un livello aggiuntivo, in base al quale un modello di AI che rientra nelle categorie dell’Allegato III sarà considerato ad alto rischio solo se presenta un rischio significativo di danno alla salute, alla sicurezza o ai diritti fondamentali.

Il rischio significativo è definito come “un rischio che è significativo come risultato della combinazione della sua gravità, intensità, probabilità di accadimento e durata dei suoi effetti, e della capacità di colpire un individuo, una pluralità di persone o di colpire un particolare gruppo di persone”.

Su richiesta dei Verdi, anche l’intelligenza artificiale utilizzata per gestire infrastrutture critiche come le reti energetiche o i sistemi di gestione dell’acqua verrebbe classificata come ad alto rischio se comporta un grave rischio ambientale.

Inoltre, i legislatori di centro-sinistra hanno ottenuto che i sistemi di raccomandazione delle piattaforme online di grandi dimensioni, come definiti nella legge sui servizi digitali (DSA), siano considerati ad alto rischio.

AI Act

AI Act: salvaguardie per l’elaborazione di dati sensibili

Gli eurodeputati hanno incluso ulteriori salvaguardie per il processo con cui i fornitori di modelli di AI ad alto rischio possono elaborare dati sensibili, come l’orientamento sessuale o le convinzioni religiose per rilevare i pregiudizi negativi.

In particolare, per poter elaborare questo tipo di dati speciali, i pregiudizi non devono essere rilevabili attraverso l’elaborazione di dati sintetici, anonimizzati, pseudonimizzati o criptati.

Inoltre, la valutazione deve avvenire in un ambiente controllato. I dati sensibili non possono essere trasmessi ad altre parti e devono essere cancellati dopo la valutazione dei pregiudizi. I fornitori devono inoltre documentare i motivi per cui è stato effettuato il trattamento dei dati.

Principi generali

Prima della riunione del 27 aprile, l’ufficio dei correlatori ha fatto circolare una proposta di principi generali da applicare a tutti i modelli di AI. Il nuovo articolo non crea nuovi obblighi, ma dovrà essere incorporato negli standard tecnici e nei documenti di orientamento.

Questi principi includono l’agenzia e la supervisione umana, la solidità e la sicurezza tecnica, la privacy e la governance dei dati, la trasparenza, il benessere sociale e ambientale, la diversità, la non discriminazione e l’equità. Inoltre, i sistemi di AI ad alto rischio dovranno registrare la loro impronta ambientale e i modelli di fondazione dovranno essere conformi agli standard ambientali europei.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3