News

AI Act: accordo nel Parlamento Ue per adottare una definizione di AI simile a quella OCSE

La definizione concordata afferma che un sistema di AI è "un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può, per obiettivi espliciti o impliciti, generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali" [...]
sandbox AI
  1. Home
  2. News
  3. AI Act: accordo nel Parlamento Ue per adottare una definizione di AI simile a quella OCSE

AI Act: il Parlamento europeo ha raggiunto un accordo politico il 3 marzo 2023 per adottare una definizione di AI simile a quella utilizzata dall’Organizzazione per la cooperazione e lo sviluppo economico (OCSE). Questa definizione è importante perché determinerà quali sistemi di AI saranno soggetti al regolamento dell’UE. La definizione concordata afferma che un sistema di intelligenza artificiale è “un sistema basato su macchine progettato per funzionare con diversi livelli di autonomia e che può, per obiettivi espliciti o impliciti, generare output come previsioni, raccomandazioni o decisioni che influenzano ambienti fisici o virtuali”. Una versione riveduta potrebbe ancora eliminare la nozione di sistema «basato su macchine» dalla formulazione. L’accordo sull’utilizzo della definizione dell’OCSE mira a garantire la certezza del diritto, l’armonizzazione e un’ampia accettazione. Oltre alla definizione di AI, il Parlamento ha approvato la maggior parte delle altre definizioni contenute nella legge sull’AI, comprese le definizioni di rischio significativo, l’autenticazione biometrica e l’identificazione.

Altri emendamenti esaminati dal Parlamento

Il 15 febbraio, i legislatori dell’UE non hanno raggiunto un accordo politico generale, ma hanno fornito un ampio feedback sulla proposta. Le note suggeriscono che i divieti di categorizzazione biometrica e tecniche subliminali saranno elaborati nel preambolo, in particolare per quanto riguarda la manipolazione psicologica in relazione alla pubblicità.

WHITEPAPER
CYBERSECURITY: le migliori strategie per la tutela e la continuità dei servizi IT
Sicurezza
Cybersecurity

Si afferma inoltre che gli sviluppatori di sistemi di AI ad alto rischio devono essere guidati e supervisionati in modo che si possa presumere che rispettino l’AI Act all’uscita dalla sandbox. È stato rimosso l’obbligo per gli sviluppatori di verificare che i dati utilizzati per addestrare i modelli siano stati ottenuti legalmente.

I principali deputati chiedono che la Commissione pubblichi specifiche comuni sui requisiti per i sistemi ad alto rischio relativi alla protezione dei diritti fondamentali. Tali specifiche verrebbero abrogate una volta incluse nelle norme tecniche.

 

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn