Normative

AI Act, il Parlamento europeo pubblica le correzioni del testo



Indirizzo copiato

Il documento corregge il linguaggio dell’AI Act. Si tratta di un importante chiarimento sul trattamento del software open source che riguarda un errore nell’interpretazione dell’esenzione sorto durante la revisione linguistico-giuridica del testo. Le altre notizie concernenti la legge europea sull’AI

Pubblicato il 30 apr 2024



AI Act correzione

Il Parlamento europeo ha diffuso, il 30 aprile 2024, la rettifica del testo della Legge sull’AI (AI Act) adottata 13 marzo. Il documento corregge il linguaggio dell’AI Act. Ad esempio, si veda il seguente chiarimento di Laura Caroli, Senior Policy Advisor del Parlamento europeo, sull’AI open-source:

Immagine che contiene testo, schermata, documento, letteraDescrizione generata automaticamente

“Un importante chiarimento sul trattamento del software open source nell’AI Act: come brevemente accennato in un commento ai post precedenti, durante la revisione linguistico-giuridica del testo, c’è stato un errore nell’interpretazione dell’esenzione di cui all’art. 2: l’attuale versione caricata del testo sembra recitare che l’OSS non è esente, tranne che per l’art. 2, che non è stato modificato. 2: l’attuale versione caricata del testo sembra recitare che gli OSS non sono esentati, tranne che per gli artt. 5 e 52 (ora 50).
Esattamente il contrario di quanto concordato!
Ma non c’è da preoccuparsi: questo è stato notato da tempo da tutti noi coinvolti nella revisione finale ed è uno dei motivi per cui esistono le rettifiche, che saranno corrette nella versione finale.
Vale la pena ricordare che l’unica versione a cui le aziende dovranno attenersi è quella che verrà pubblicata sulla Gazzetta Ufficiale tra 1-2 mesi. Inoltre, per rimanere in tema: i componenti OSS che possono beneficiare dell’esenzione sono quelli i cui parametri, compresi i pesi, le informazioni sull’architettura del modello e l’utilizzo del modello sono resi pubblici (ad esempio Mistral non lo è) + non sono resi disponibili a fronte di un prezzo o altrimenti monetizzati (ad esempio attraverso il supporto tecnico o la raccolta di dati). In altre parole: Google non lo è). Solo la vera essenza della comunità libera e open source deve essere preservata da questa esenzione. (Si vedano i considerando 102 e 103)”.

Altre notizie riguardanti l’AI Act

Dichiarazione congiunta delle organizzazioni dei lavoratori creativi

Una coalizione di organizzazioni dell’industria creativa che rappresenta scrittori, interpreti, compositori e altro ha rilasciato una dichiarazione in merito alla legge sull’AI. Essi accolgono con favore le disposizioni della legge per l’AI di uso generale, in particolare quelle che impongono il rispetto della legge sul copyright dell’UE e la trasparenza dei dati. I firmatari sottolineano che la legge deve ancora essere attuata efficacemente a livello europeo e nazionale. Sono state espresse preoccupazioni sulla gestione delle eccezioni per l’estrazione di testi e dati, che non affrontano adeguatamente l’uso di modelli generativi di AI.

Secondo la coalizione, tali eccezioni non sono state concepite tenendo conto dei modelli di AI generativa su larga scala. Sostengono che, nonostante le direttive europee esistenti, i creatori non sono stati adeguatamente compensati per l’uso del loro lavoro nei contenuti generati dall’AI. Le organizzazioni esortano i responsabili politici dell’UE a impegnarsi in discussioni ampie e democratiche per stabilire un quadro giuridico che protegga i diritti dei creatori e garantisca un equo compenso nell’era dell’AI generativa.

Il Regno Unito ripensa la legislazione sull’intelligenza artificiale mentre cresce l’allarme sui rischi potenziali

Le giornaliste del Financial Times, Anna Gross e Cristina Criddle, hanno riferito che il governo britannico sta iniziando a elaborare una nuova legislazione per porre dei limiti alla produzione di modelli linguistici di grandi dimensioni. I piani arrivano in mezzo alle crescenti preoccupazioni delle autorità di regolamentazione, compresa l’autorità britannica per la concorrenza, riguardo ai potenziali impatti negativi di tali modelli. Gross e Criddle osservano che l’UE ha adottato una posizione più severa sull’AI rispetto al Regno Unito, con il Parlamento europeo che ha recentemente approvato alcuni dei regolamenti iniziali e più severi attraverso l’AI Act. Le startup che si occupano di AI hanno espresso preoccupazione per i regolamenti dell’UE, considerandoli una supervisione eccessiva che potrebbe ostacolare l’innovazione. Questa severa legislazione avrebbe indotto altre nazioni, come il Canada e gli Emirati Arabi Uniti, a invogliare alcune delle più promettenti aziende tecnologiche europee a prendere in considerazione la possibilità di trasferirsi.

La legge sull’AI nel ciclo di vita dei medicinali

La Federazione europea delle industrie e delle associazioni farmaceutiche (EFPIA) ha rilasciato una dichiarazione sull’attuazione della legge sull’AI nel settore farmaceutico, sottolineando il ruolo crescente dell’AI nello sviluppo dei farmaci. L’EFPIA sottolinea la necessità che i regolamenti sull’AI siano adatti allo scopo, adeguatamente personalizzati e basati sul rischio, e che non costituiscano una duplicazione delle norme esistenti. L’EFPIA propone cinque considerazioni:

1) la R&S di strumenti per lo sviluppo di farmaci basati sull’AI dovrebbe beneficiare dell’esenzione dalla ricerca prevista dalla legge sull’AI se utilizzata esclusivamente per la ricerca scientifica;

2) l’AI utilizzata per la R&S di farmaci che non rientrano nell’esenzione non dovrebbe essere etichettata come “ad alto rischio”, come previsto dai criteri della legge all’articolo 6;

3) non è necessaria una regolamentazione aggiuntiva per la R&S dell’AI, in quanto le norme esistenti non sono state modificate;

4) l’EFPIA accoglie con favore gli sforzi dell’Agenzia europea per i medicinali per valutare l’impatto dell’AI nella R&S;

5) la normativa sull’AI dovrebbe essere adattabile a vari contesti, tra cui le fasi di sviluppo, le valutazioni del rischio e la supervisione umana.

Il tocco morbido dell’UE sull’AI open-source

Francesca Giannaccini e Tobias Kleineidam, rispettivamente attuale ed ex ricercatore di Democracy Reporting International, hanno pubblicato un op-ed su The Parliament Magazine in cui sostengono che la legge sull’AI introduce esenzioni per i modelli di AI aperti, consentendo potenzialmente a soggetti malintenzionati di sfruttarli per diffondere contenuti dannosi. Giannaccini e Kleineidam sostengono che, a differenza di strumenti proprietari come ChatGPT o Gemini, che limitano l’accesso alla loro tecnologia di base, i modelli open-source offrono la modificabilità, consentendo agli sviluppatori di creare contenuti dannosi su scala.

I test condotti dagli autori hanno rivelato che i modelli open-source generano contenuti dannosi con una credibilità e una creatività allarmanti. Giannaccini e Kleineidam riconoscono i vantaggi dell’AI open-source, ma sostengono che l’approccio della legge manca di equilibrio, favorendo lo sviluppo aperto senza adeguate garanzie. A loro avviso, mentre i modelli proprietari sono soggetti a normative severe, i modelli aperti godono di ampie esenzioni, che richiedono solo la trasparenza sui dati di addestramento e il rispetto della legge sul copyright.

Il rapporto tra l’AI Act e la legge sulla protezione dei dati

Gli avvocati di DLA Piper, James Clark, Muhammed Demircan e Kalyna Kettas hanno scritto una panoramica sulla stretta relazione tra la legge europea sulla protezione dei dati (GDPR) e l’AI Act. In primo luogo, la legge si concentra principalmente sulla garanzia di uno sviluppo e di un utilizzo sicuri dei sistemi di AI, più che sulla concessione di diritti individuali.

In secondo luogo, le autorità europee per la protezione dei dati (DPA) sono state tra i primi organismi di regolamentazione ad applicare le norme contro l’uso dei sistemi di AI, a causa delle preoccupazioni relative ai dati personali e alla mancanza di trasparenza, tra le altre questioni.

In terzo luogo, il GDPR e l’AI Act si basano entrambi su principi chiave. I principi del GDPR includono la liceità, l’equità, la trasparenza, la limitazione delle finalità, la minimizzazione dei dati, l’accuratezza, la limitazione della conservazione, l’integrità e la riservatezza. La legge delinea i principi generali per tutti i sistemi di AI, tratti dai principi dell’AI dell’OCSE e dai principi etici del Gruppo di esperti di alto livello sull’AI.

Infine, la legge impone valutazioni di conformità – non valutazioni del rischio, ma strumenti dimostrativi per dimostrare la conformità – mentre il GDPR richiede valutazioni d’impatto sulla protezione dei dati (DPIA).

Articoli correlati

Articolo 1 di 4