Normative europee

AI Act dell’UE: l’accordo sul regolamento potrebbe arrivare entro marzo

Lo ha affermato Laura Caroli, assistente parlamentare che conduce i negoziati sulla legge, durante un intervento al CES di Las Vegas. I legislatori in Europa stanno lavorando anche alle regole per i modelli di intelligenza artificiale generativa che producono immagini e testi, come Stable Diffusion, LaMDA e ChatGPT

Pubblicato il 09 Gen 2023

ue parlamento

La discussione sull’AI Act dell’Unione Europea potrebbe concludersi entro marzo, ha dichiarato Laura Caroli, assistente parlamentare che attualmente conduce i negoziati sulla legge sull’intelligenza artificiale a livello tecnico, durante un intervento al CES di Las Vegas.

Il Parlamento europeo, che deve ancora votare sulla futura legislazione, sta “davvero cercando di concludere e farlo votare entro marzo”, ha affermato Caroli. Il contenzioso dovrebbe essere approvato entro la fine del 2023 ed entrerà in vigore due anni dopo, il che significa che non entrerà a regime fino al 2026. “Ci vuole molto tempo, ma è un atto legislativo complesso e ci sono molte tensioni politiche”, ha detto Caroli.

Poiché l’AI è “in continua evoluzione”, ha aggiunto, i legislatori europei vogliono applicare un approccio graduale ai rischi che consentano una certa flessibilità. La legislazione deve garantire l’affidabilità nell’AI e rimuovere il fattore paura che attualmente colpisce i consumatori europei.

Laura Caroli interviene sull’AI Act dell’UE al CES di Las Vegas

“Le persone hanno paura dell’intelligenza artificiale, soprattutto perché sta diventando sempre più potente e occupa più aree della nostra vita”, ha detto Caroli. “Le persone hanno paura delle decisioni prese da una macchina. Siamo convinti che se assicuriamo attraverso questo regolamento e altri strumenti, che i sistemi che dovrebbero essere utilizzati in aree ad alto rischio siano il più possibile accurati, robusti e sicuri e che preservino la privacy, allora le persone avranno meno paura e li useranno. Vogliamo stimolare un mercato unico per l’intelligenza artificiale che sia a misura di consumatore, a misura d’uomo e incentrato sull’uomo”.

L’AI Act è già stato approvato dal Consiglio dell’UE

Al di là della rivelazioni sul cammino dell’AI Act che giungono dal CES vi è da dire che questo è già stato approvato dal Consiglio dell’Unione europea, che ha adottato la sua posizione comune, o orientamento generale, a dicembre 2022.

Ma per essere recepita in legge, la legislazione deve passare per entrambe le istituzioni, ma il disegno di legge è rimasto indietro in Parlamento mentre i deputati discutono sulle disposizioni sui sistemi di identificazione biometrica.

Il futuro AI Act considera tutti i sistemi di identificazione biometrica remota “ad alto rischio”. Ad aggravare ulteriormente questo è il divieto per le forze dell’ordine di utilizzare tali sistemi in spazi accessibili al pubblico. Il divieto, tuttavia, prevede alcune esenzioni, con tali sistemi da utilizzare solo in determinate circostanze, con l’autorizzazione di un organo giudiziario o indipendente richiesto.

Alcuni legislatori hanno chiesto un approccio più “centralizzato e ibrido” in cui l’implementazione di base sia lasciata ai regolatori nazionali e alcune applicazioni e impatti siano appannaggio della Commissione. Axel Voss, l’eurodeputato tedesco e relatore per la controversa legge sul copyright del blocco, è uno dei principali legislatori che fanno campagna per questo approccio.

L’approccio generale del Consiglio dell’UE modifica, tuttavia, la disposizione del sistema di identificazione biometrica a distanza, con il testo che chiarisce che possono essere utilizzati solo nei casi in cui è “strettamente necessario a fini di contrasto”.

AI Act e modelli di intelligenza artificiale generativa

I legislatori in Europa stanno lavorando su regole per i modelli di intelligenza artificiale generativa che producono immagini e testi, come Stable Diffusion, LaMDA e ChatGPT. Potrebbero significare la fine dell’era delle aziende che rilasciano i loro modelli di intelligenza artificiale in natura con poche o nessuna salvaguardia o responsabilità.

Questi modelli costituiscono sempre più la spina dorsale di molte applicazioni di intelligenza artificiale, ma le aziende che li producono mantengono il più alto segreto su come vengono costruiti e addestrati. Non sappiamo molto su come funzionano, e questo rende difficile capire come i modelli generano contenuti dannosi o risultati distorti, o come mitigare tali problemi.

L’Unione Europea sta pianificando di aggiornare il suo prossimo regolamento sull’IA, AI Act, con regole che costringono queste aziende a far luce sul funzionamento interno dei loro modelli di AI.  L’UE chiama questi modelli generativi “sistemi di IA generici”, perché possono essere utilizzati per molte cose diverse (da non confondere con l’intelligenza artificiale generale, l’idea molto pubblicizzata della superintelligenza AI). Ad esempio, i modelli linguistici di grandi dimensioni come GPT-3 possono essere utilizzati nei chatbot del servizio clienti o per creare disinformazione su larga scala, e Stable Diffusion può essere utilizzato per creare immagini per biglietti di auguri o porno deepfake non consensuale.

Mentre il modo esatto in cui questi modelli saranno regolati nell’AI Act è ancora oggetto di acceso dibattito, i creatori di modelli di AI generici, come OpenAI, Google e DeepMind, dovranno probabilmente essere più aperti su come i loro modelli sono costruiti e addestrati, afferma Dragoș Tudorache, membro liberale del Parlamento europeo che fa parte del team che negozia l’AI Act.

Regolamentare queste tecnologie è complicato, perché ci sono due diversi insiemi di problemi associati ai modelli generativi, e questi hanno soluzioni politiche molto diverse, afferma Alex Engler, ricercatore di governance AI presso la Brookings Institution. Uno è la diffusione di contenuti dannosi generati dall’AI, come l’incitamento all’odio e la pornografia non consensuale, e l’altro è la prospettiva di risultati distorti quando le aziende integrano questi modelli di intelligenza artificiale nei processi di assunzione o li utilizzano per rivedere documenti legali.

La condivisione di maggiori informazioni sui modelli potrebbe aiutare le terze parti che stanno costruendo prodotti su di essi. Ma quando si tratta della diffusione di contenuti dannosi generati dall’AI sono necessarie regole più severe. Engler suggerisce che i creatori di modelli generativi dovrebbero essere tenuti a costruire restrizioni su ciò che i modelli produrranno, monitorare i loro risultati e sanzionare gli utenti che abusano della tecnologia. Ma anche questo non impedirà necessariamente a una persona determinata di diffondere cose tossiche…

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4