News

AI Act: accordo nel Parlamento Ue per adottare una definizione di AI simile a quella OCSE

La definizione concordata afferma che un sistema di AI è “un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può, per obiettivi espliciti o impliciti, generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali”

Pubblicato il 14 Mar 2023

sandbox AI

AI Act: il Parlamento europeo ha raggiunto un accordo politico il 3 marzo 2023 per adottare una definizione di AI simile a quella utilizzata dall’Organizzazione per la cooperazione e lo sviluppo economico (OCSE). Questa definizione è importante perché determinerà quali sistemi di AI saranno soggetti al regolamento dell’UE. La definizione concordata afferma che un sistema di intelligenza artificiale è “un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può, per obiettivi espliciti o impliciti, generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali”. Una versione riveduta potrebbe ancora eliminare la nozione di sistema «basato su macchine» dalla formulazione. L’accordo sull’utilizzo della definizione dell’OCSE mira a garantire la certezza del diritto, l’armonizzazione e un’ampia accettazione. Oltre alla definizione di AI, il Parlamento ha approvato la maggior parte delle altre definizioni contenute nella legge sull’AI, comprese le definizioni di rischio significativo, l’autenticazione biometrica e l’identificazione.

Altri emendamenti esaminati dal Parlamento

Il 15 febbraio, i legislatori dell’UE non hanno raggiunto un accordo politico generale, ma hanno fornito un ampio feedback sulla proposta. Le note suggeriscono che i divieti di categorizzazione biometrica e tecniche subliminali saranno elaborati nel preambolo, in particolare per quanto riguarda la manipolazione psicologica in relazione alla pubblicità.

Si afferma inoltre che gli sviluppatori di sistemi di AI ad alto rischio devono essere guidati e supervisionati in modo che si possa presumere che rispettino l’AI Act all’uscita dalla sandbox. È stato rimosso l’obbligo per gli sviluppatori di verificare che i dati utilizzati per addestrare i modelli siano stati ottenuti legalmente.

I principali deputati chiedono che la Commissione pubblichi specifiche comuni sui requisiti per i sistemi ad alto rischio relativi alla protezione dei diritti fondamentali. Tali specifiche verrebbero abrogate una volta incluse nelle norme tecniche.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 4