L’AI Act, entrato in vigore nell’agosto 2024 (Strategia Digitale Europea) è stato concepito come “la più ambiziosa cornice normativa per l’intelligenza artificiale” a livello globale. Obiettivo dichiarato: favorire un’AI “umanocentrica e affidabile”, garantendo al contempo elevati standard di tutela per la salute, la sicurezza, i diritti fondamentali e lo stato di diritto.
Negli ultimi mesi la Commissione Europea ha aperto una consultazione per valutare «come semplificare le regole in materia di dati, cybersecurity e intelligenza artificiale» nell’ambito del pacchetto definito “Digital Omnibus”. (Strategia Digitale Europea)
In parallelo, varie associazioni di imprese e aziende tech (sia europee che statunitensi) hanno sollevato preoccupazioni circa l’eccessivo carico burocratico, la scarsità di chiarezza normativa e il rischio che la rigidità del regime penalizzi la competitività europea.
Inoltre, la pressione internazionale – in particolare da parte degli Stati Uniti – e il timore di ritorsioni commerciali o tecnologiche hanno contribuito a indurre un clima di revisione.
Indice degli argomenti:
Cosa prevede la bozza di modifica della Commissione UE
Secondo la bozza di proposta che sta circolando (pubblicata dal Financial Times), e che sarà discussa il 19 novembre, la Commissione starebbe considerando:
- di concedere alle aziende che hanno già immesso sul mercato sistemi generativi di AI una “pausa” di un anno per adeguarsi alle nuove normative (“grace period”);
- di rinviare l’entrata in vigore delle sanzioni per violazioni delle nuove regole di trasparenza dell’IA fino all’agosto 2027, per «fornire tempo sufficiente agli operatori per adattarsi»;
- di ridurre i costi e gli obblighi di compliance per le imprese e centralizzare l’applicazione della legge attraverso un’unica autorità europea dell’IA.
“L’UE non intende riaprire radicalmente l’AI Act, ma punta semmai a semplificarne l’attuazione, rendendo più chiari e meno onerosi gli obblighi per le imprese senza ridurre la tutela dei diritti e della sicurezza”, commenta Giuseppe Corasaniti, ordinario di informatica giuridica ed etica digitale Università Mercatorum. “In questa logica si muove un codice di condotta comune, che aiuterà a classificare i modelli di AI in base ai rischi economici e per il lavoro, indicando quali tecnologie possono essere considerate sicure e quali dovranno rispettare obblighi più stringenti, favorendo una conformità più prevedibile, almeno per i più diffusi modelli di AI generativa, entro l’entrata a regime dell’AI Act”, aggiunge Corasaniti.
Critiche e rischi del ripensamento
Da un lato, i sostenitori dei diritti digitali temono che una «semplificazione» possa trasformarsi in una de-regolamentazione di fatto, indebolendo le garanzie introdotte dall’AI Act.
Dall’altro, gli operatori tecnologici avvertono che norme troppo rigide prima che sia disponibile un quadro operativo e standardizzato rischiano di creare incertezza e ostacolare l’innovazione in Europa.
Un punto critico resta il bilanciamento tra tutela e competitività: come ha detto un ministro danese, «se ci sono alcuni aspetti che potrebbero essere semplificati o resi più facili da interpretare per le aziende, sarebbe stupido non farlo».
“Il problema è molto più ampio – fa notare Corasaniti -, perché la stessa configurazione del Regolamento – concepito come normativa generale e non settoriale – rende molto difficile in pratica definire modalità attuative comuni in settori molto differenti tra di loro.”
Implicazioni per l’Italia e per il mercato europeo
Per le imprese italiane e europee che operano nel settore dell’AI, la revisione proposta comporta una finestra di opportunità e rischio: opportunità perché il carico normativo potrebbe diminuire; rischio perché l’incertezza regolamentare potrebbe protrarsi.
Inoltre, un’eventuale indebolimento della legge europea potrebbe favorire realtà extra-UE che già godono di normative meno stringenti, riducendo il vantaggio competitivo dell’Europa come “mercato sicuro”.
Infine, se la semplificazione fosse percepita come cedimento alle grandi aziende o alle pressioni esterne, ciò potrebbe minare la fiducia nei regolatori europei e nei meccanismi di bilanciamento tra innovazione e diritti.
Conclusione
Il ripensamento del regolamento sull’intelligenza artificiale da parte della Commissione europea non rappresenta un passo indietro nella sostanza degli obiettivi fissati – ovvero un’AI sicura, etica e competitiva – ma una delle maggiori sfide regolamentari presenti: come realizzare una legge che sia al tempo stesso rigorosa e pragmatica, capace di garantire diritti fondamentali senza soffocare l’innovazione.
La decisione attesa il 19 novembre metterà in luce il bilanciamento scelto da Bruxelles tra rigore normativo e flessibilità industriale.







