La Commissione Europea ha recentemente avviato una consultazione pubblica per raccogliere feedback sulla regolamentazione dei sistemi di intelligenza artificiale ad alto rischio, un passo significativo nell’ambito dell’AI Act. Questa consultazione si concentra su due categorie di sistemi: quelli rilevanti per la sicurezza dei prodotti secondo la legislazione armonizzata dell’UE, e quelli che potrebbero avere impatti significativi sulla salute, sicurezza o diritti fondamentali delle persone. L’obiettivo principale è raccogliere esempi pratici e risolvere le problematiche legate alla classificazione dei sistemi AI ad alto rischio, al fine di guidare la stesura delle linee guida future.
Indice degli argomenti:
La Commissione europea avvia una consultazione sui sistemi ad alto rischio
“Questa consultazione è un’opportunità fondamentale per raccogliere input da una vasta gamma di stakeholder, tra cui fornitori e sviluppatori di sistemi AI ad alto rischio, imprese e autorità pubbliche che li utilizzano, nonché accademia, istituti di ricerca, società civile, governi, autorità di supervisione e cittadini in generale,” ha dichiarato la Commissione.
Obiettivi e tematiche della consultazione
La consultazione ha lo scopo di chiarire i temi critici legati ai sistemi AI ad alto rischio e alle loro implicazioni. I partecipanti sono invitati a condividere esempi concreti per delineare i requisiti specifici e le responsabilità lungo l’intera catena del valore dell’AI. Il processo di consultazione, che durerà sei settimane, si concluderà il 18 luglio 2025, e le informazioni raccolte serviranno a migliorare la classificazione dei sistemi AI e a definire le misure per la loro regolamentazione.
Potenziale posticipo delle norme sull’AI

Recenti dichiarazioni del vicepresidente esecutivo della Commissione Europea Henna Virkkunen suggeriscono che potrebbero esserci dei ritardi nell’implementazione di alcune disposizioni dell’AI Act. La Commissione sta valutando la possibilità di rinviare alcune scadenze per consentire la definizione delle linee guida tecniche e degli standard necessari. Questa possibilità è stata sollevata anche a seguito di un intenso lobbying, con particolare riferimento a società statunitensi che chiedono maggiori chiarimenti. Nonostante il sostegno per i rinvii da parte di alcuni ministri europei, il ministro digitale polacco Dariusz Standerski ha sottolineato che qualsiasi ritardo deve essere accompagnato da un piano d’azione chiaro, evitando che il rinvio diventi un’azione senza scopo.
Le richieste dei giganti tecnologici statunitensi
Secondo quanto riportato da Cynthia Kroet di Euronews, i principali colossi tecnologici statunitensi, tra cui Amazon, IBM, Google, Meta, Microsoft e OpenAI, hanno chiesto alla Commissione Europea di semplificare il codice di condotta per l’AI generale. Queste aziende hanno incontrato Werner Stengg, un funzionario della Commissione, per discutere il prossimo Codice di Pratica sull’AI Generale, sollecitando una riduzione del carico amministrativo e una maggiore chiarezza nelle linee guida.
La pubblicazione finale del codice, originariamente prevista per il 2 maggio, è stata rinviata al mese di agosto a causa di numerose richieste di estensione del periodo di consultazione. Le aziende hanno anche richiesto un tempo adeguato per l’implementazione una volta che il codice sarà pubblicato.
La governance degli agenti AI sotto l’AI Act
L’AI Act regola anche gli agenti AI, ovvero sistemi autonomi di intelligenza artificiale che possono avere impatti diretti sugli ambienti reali. Un’analisi pubblicata da The Future Society, condotta da Amin Oueslati e Robin Staes-Polet, esplora come la legislazione affronti il rischio associato a questi agenti. I principali risultati includono la necessità di una governance distribuita lungo tutta la catena del valore, il che implica che i rischi debbano essere gestiti da tutti gli attori coinvolti, considerando le asimmetrie in termini di risorse, competenze e conoscenze contestuali tra i vari soggetti. La gestione dei rischi degli agenti AI è basata su quattro pilastri fondamentali: valutazione dei rischi, strumenti di trasparenza, controlli tecnici e supervisione umana.
Rimozione del carico normativo per una maggiore competitività
Digitaleurope, un’associazione che rappresenta le industrie tecnologiche europee, ha recentemente pubblicato un documento che sottolinea come la riduzione dei carichi normativi potrebbe rafforzare la competitività tecnologica dell’Europa, specialmente nel campo dell’AI, dei computer quantistici e dei semiconduttori avanzati. Nonostante il forte posizionamento dell’Europa in alcuni settori, il continente è indietro rispetto ad altre regioni globali in sette su otto aree tecnologiche strategiche.
La politica proposta punta a ridurre gli obblighi di reporting per le grandi imprese del 25% e per le PMI del 35% entro il 2029, proponendo anche tagli più ambiziosi del 50% per favorire una maggiore capacità di scalare e competere a livello globale.
Le preoccupazioni sul codice di condotta per i modelli AI
Secondo un rapporto di Luca Bertuzzi di MLex, alcuni esperti avvertono che il codice di condotta per i modelli AI potrebbe non garantire sufficiente trasparenza per gli utenti downstream, quelli cioè che utilizzano i modelli AI per applicazioni ad alto rischio. Le lacune nei requisiti di trasparenza potrebbero impedire a questi utenti di rispettare le norme di due diligence previste dall’AI Act. Il rischio è che, senza misure adeguate, i fornitori di modelli AI potrebbero non essere in grado di fornire le informazioni necessarie per la conformità, creando incertezze regolatorie e limitando l’adozione di modelli AI generali in applicazioni ad alto rischio.
Conclusioni
La Commissione Europea sta lavorando per definire una regolamentazione efficace per i sistemi AI ad alto rischio, ma le sfide normative e le preoccupazioni dei vari attori coinvolti sono significative. La consultazione pubblica rappresenta un’opportunità cruciale per raccogliere feedback e affinare le linee guida, mentre il dibattito sulla possibilità di posticipare alcune scadenze e semplificare le normative continua a essere un tema caldo. Sarà fondamentale trovare un equilibrio tra regolamentazione e innovazione per garantire la competitività e la sicurezza nell’ecosistema AI globale.