normative

AI Act, rinviata l’applicazione delle norme per i sistemi ad alto rischio: tensione fra Parlamento e Consiglio



Indirizzo copiato

Il Parlamento europeo e il Consiglio convergono sulla semplificazione dell’AI Act, rinviando alcune scadenze chiave e introducendo nuovi divieti. Ma emergono tensioni su enforcement, diritti fondamentali e regolazione degli agenti autonomi. Organizzazioni e autorità avvertono: modifiche affrettate rischiano frammentazione normativa, incertezza giuridica e indebolimento delle tutele europee

Pubblicato il 24 mar 2026



AI Act UE

Il Parlamento europeo ha approvato una posizione con ampia maggioranza per semplificare l’AI Act, segnando un passaggio essenziale nella regolazione dell’intelligenza artificiale in Europa. Tra le novità principali emerge il rinvio dell’applicazione delle norme per i sistemi ad alto rischio, motivato dal ritardo nella definizione degli standard tecnici.

Le nuove scadenze

Le nuove scadenze proposte fissano al 2 dicembre 2027 l’entrata in vigore per i sistemi ad alto rischio e al 2 agosto 2028 per quelli regolati da normative settoriali. Più stringente invece la tempistica per gli obblighi di watermarking, anticipati al novembre 2026.

Sul piano politico, si rafforza anche l’attenzione ai diritti: vietati i sistemi “nudifier” che generano contenuti sessualmente espliciti senza consenso. Inoltre, vengono estese le misure di supporto anche alle piccole mid-cap, ampliando la platea delle imprese beneficiarie.


Consiglio UE: convergenza sulla semplificazione, ma con correttivi

Il Consiglio ha adottato una linea simile, trattando il dossier come prioritario. Pur mantenendo l’impianto della Commissione, gli Stati membri introducono alcune modifiche rilevanti.

Tra queste, il ripristino dell’obbligo di registrazione per alcuni sistemi inizialmente esclusi dalla classificazione ad alto rischio e il rinvio delle sandbox regolatorie al 2027. Rafforzato anche il divieto di contenuti AI illegali, inclusi quelli sessuali non consensuali o legati all’abuso minorile.

Importante chiarimento riguarda il ruolo dell’AI Office, che avrà competenze più definite nella supervisione dei modelli general-purpose sviluppati dagli stessi fornitori. Inoltre, la Commissione dovrà fornire linee guida per ridurre gli oneri di compliance per le imprese.


Il nodo degli agenti autonomi: una regolazione già obsoleta?

Uno dei punti più critici riguarda l’emergere degli agenti AI autonomi, sistemi capaci di operare senza input diretto umano. A differenza dei chatbot tradizionali, questi strumenti possono eseguire compiti complessi in autonomia, come programmare software o interagire con altri sistemi.

Alcuni episodi recenti, come agenti che hanno agito in modo non autorizzato in ambienti open-source, hanno acceso il dibattito. Il problema è strutturale: l’AI Act è stato concepito prima della diffusione di queste tecnologie.

Le istituzioni europee appaiono divise. Da un lato, si ritiene che gli agenti possano rientrare nelle regole esistenti; dall’altro, cresce la pressione per una normativa dedicata. Tuttavia, diversi Stati membri frenano, temendo un eccesso di regolazione e invocando approcci più flessibili basati su soft law.


Enforcement: rischio frammentazione tra Stati membri

L’applicazione dell’AI Act si baserà su un modello ibrido, che combina supervisione europea e implementazione nazionale. Questo approccio, sebbene coerente con la governance UE, rischia di generare disomogeneità.

Ogni Stato membro dovrà designare autorità specifiche per notificazione e vigilanza, ma molti sono già in ritardo. A livello centrale, l’UE ha istituito una serie di organismi: l’AI Office, il Board europeo, un panel scientifico e un forum consultivo multi-stakeholder.

Nonostante questa architettura, la prevalenza del livello nazionale potrebbe tradursi in applicazioni divergenti, con effetti negativi su mercato unico e certezza giuridica.


Diritti fondamentali sotto pressione

Le organizzazioni europee per i diritti umani e l’uguaglianza lanciano un allarme: le modifiche proposte rischiano di indebolire le garanzie fondamentali.

Il punto critico è procedurale oltre che sostanziale. Secondo queste autorità, le revisioni stanno avvenendo senza adeguate valutazioni d’impatto e consultazioni pubbliche, in contrasto con gli standard europei di buona regolazione.

Tra i rischi segnalati: l’allentamento delle definizioni di dati personali, la riduzione degli obblighi informativi e un possibile indebolimento delle responsabilità in materia di alfabetizzazione AI. Particolarmente controversa è l’idea di modulare gli obblighi in base alla dimensione aziendale anziché al rischio tecnologico.


Omnibus digitale: lo spettro della frammentazione normativa

Un ulteriore fronte di tensione riguarda il cosiddetto “Digital Omnibus”. Diverse organizzazioni industriali e della società civile temono che lo spostamento dei sistemi ad alto rischio verso normative settoriali possa smantellare l’approccio orizzontale dell’AI Act della Ue.

Secondo queste critiche, il risultato sarebbe una maggiore frammentazione normativa, con regole diverse per settore, tempi incerti e aumento dei costi di compliance. Le conseguenze economiche potrebbero essere rilevanti: più burocrazia, minore certezza giuridica e ostacoli all’innovazione, soprattutto per startup e PMI.

Al contrario, un quadro uniforme viene considerato essenziale per garantire competitività globale e integrazione delle catene del valore europee.


Verso il negoziato finale

Con il voto in plenaria imminente, si apre ora la fase negoziale tra Parlamento e Consiglio. Il compromesso finale dovrà bilanciare tre esigenze: semplificazione normativa, tutela dei diritti e competitività economica.

L’AI Act entra così nella sua fase più delicata: quella in cui l’ambizione regolatoria europea dovrà confrontarsi con la velocità dell’innovazione tecnologica e le pressioni del sistema economico.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x