normative

AI Act, seconda fase: l’Europa può ancora guidare la corsa, ma le regole devono essere applicabili



Indirizzo copiato

Dal 2 agosto 2025 è scattata la seconda fase dell’AI Act. L’Europa punta su un modello etico e innovativo, ma servono risorse, competenze e chiarezza per trasformare la regolazione in un’opportunità concreta, soprattutto per le PMI

Pubblicato il 6 ago 2025

Luca Manuelli

Direttore dell’Osservatorio di Intelligenza Artificiale Generativa – Unimarconi e docente di intelligenza artificiale



AI Act open source

Dal 2 agosto 2025 è entrata ufficialmente in vigore la seconda fase dell’AI Act, la più avanzata regolazione sull’intelligenza artificiale oggi esistente al mondo. Dopo il primo step di giugno, che ha sancito la piena entrata in vigore del Regolamento, la tappa di agosto segna un punto di svolta concreto: viene bandito l’uso di sistemi di AI classificati come “a rischio inaccettabile”, quali il riconoscimento biometrico in tempo reale, le forme di manipolazione subliminale e il social scoring sul modello cinese.

Questa non è più una fase preparatoria: è il momento dell’attuazione vincolante, che impone sanzioni fino a 35 milioni di euro o al 7% del fatturato globale per i trasgressori. È quindi un passaggio altamente simbolico, ma anche operativo, che ci interroga su quanto l’Europa sia pronta – o in ritardo – non tanto nel legiferare, quanto nel rendere effettive le sue leggi.

Regole chiare, ma serve capacità operativa

La seconda fase dell’AI Act non introduce nuove regole, ma attiva le prime conseguenze dirette per chi viola le disposizioni. È un banco di prova essenziale per l’intero impianto normativo, che si basa su una logica di classificazione dei sistemi AI in base al rischio (inaccettabile, alto, limitato, minimo) e definisce obblighi stringenti per produttori, distributori e utilizzatori.

La prossima tappa sarà febbraio 2026, quando scatteranno gli obblighi per i sistemi a rischio alto: documentazione tecnica, valutazioni di conformità, tracciabilità dei dati e supervisione umana. Poi, nell’agosto dello stesso anno, entrerà in vigore l’intero regolamento anche per i modelli GPAI (general-purpose), come ChatGPT o Claude, e i relativi fornitori.

Nel frattempo, però, si pongono due esigenze fondamentali:

1. che le autorità di vigilanza siano messe in condizione di operare efficacemente;

2. che le aziende – grandi e piccole – abbiano gli strumenti, la formazione e le risorse per rispettare quanto previsto.

Altrimenti, il rischio è che le regole rimangano sulla carta o diventino una barriera per chi non può permettersi di adattarsi.

AI Act approvazione

Una regolazione ambiziosa, tra tutela e innovazione

L’AI Act ha il merito di aver introdotto una logica fondata su diritti fondamentali, trasparenza e responsabilità. Ma è anche una legge che non si oppone allo sviluppo, anzi lo riconosce. Prevede infatti meccanismi di sostegno all’innovazione come:

• le regulatory sandbox, per sperimentare in sicurezza modelli nuovi;

• l’AI Office europeo, che avrà potere di coordinamento e supervisione;

• una serie di esenzioni per ricerca e open source che puntano ad alleggerire il carico burocratico dove possibile.

Tuttavia, come evidenzia anche il rapporto Draghi sulla competitività europea, le regole da sole non bastano. Serve capacità di esecuzione. Serve un ecosistema industriale in grado di affiancare alla regolazione un’infrastruttura di innovazione robusta.

Regole sì, ma non come leva protezionistica

Alcune critiche internazionali – e anche interne – all’AI Act ruotano attorno all’idea che l’Europa stia cercando, attraverso la regolazione, di compensare un evidente ritardo competitivo rispetto a USA e Cina. È un’accusa che merita una riflessione: una regolazione robusta non è di per sé protezionismo. È piuttosto un segnale di responsabilità politica e culturale, in un mondo che spesso ha preferito innovare a ogni costo, salvo poi correggere i danni dopo.

Ma è anche vero che le regole devono poter essere applicate. Se diventano troppo onerose o ambigue, possono paradossalmente rafforzare proprio i giganti che si vorrebbero controllare, perché solo loro hanno le risorse per adeguarsi. Oppure possono disincentivare l’adozione dell’AI da parte di PMI, pubbliche amministrazioni e startup, generando un effetto opposto a quello voluto.

Big tech e geopolitica: AI Act come cartina di tornasole

L’entrata in vigore della seconda fase dell’AI Act si colloca in un contesto geopolitico sempre più frammentato. Gli Stati Uniti stanno intensificando le restrizioni su export tecnologico e semiconduttori, mentre la politica dei dazi di Trump è tornata a dominare la scena globale. Le grandi piattaforme (da OpenAI a Google) osservano con preoccupazione le imposizioni UE in materia di trasparenza, tracciabilità dei dati di addestramento e obblighi sui GPAI.

In questo quadro, l’AI Act può essere percepito – soprattutto oltreoceano – come un tentativo di contenimento dello strapotere delle big tech. Ma sarebbe un errore strategico limitarsi a questa lettura. Il vero valore del regolamento europeo non è “frenare gli altri”, ma costruire un modello differente, più umano-centrico, trasparente e democratico.

La posta in gioco: innovare per non essere solo regolatori

È chiaro che la regolazione è una leva di soft power, ma l’Europa ha bisogno anche di potenza industriale e capacità tecnologica. Per questo sono fondamentali:

• i nuovi investimenti europei in AI, come InvestAI da 200 miliardi lanciato a febbraio 2025;

• le politiche proposte dal rapporto Draghi per consolidare poli di ricerca, centri di calcolo, data center e sovranità digitale;

• l’apertura di sandbox regolatorie accessibili, non solo formali.

Il mercato dell’AI in Europa è in crescita esponenziale: si stima un valore di oltre 370 miliardi di euro entro il 2030. Ma per partecipare a questa partita, l’Europa deve passare da regolatore a protagonista. Le regole devono accompagnare l’innovazione, non sostituirla.

Conclusione: una fase cruciale per l’Europa dell’AI

La seconda fase dell’AI Act ci ricorda una verità semplice ma potente: una legge vale solo quanto vale la sua attuazione.

Ora che i primi divieti sono effettivi, la sfida è rendere la regolazione uno strumento di fiducia, non un freno.

L’Europa ha scelto un modello: etico, sostenibile e umano-centrico. Ma deve dotarsi degli strumenti per renderlo concreto.

Perché se non possiamo – o non vogliamo – competere solo sulla velocità, possiamo ancora guidare sul metodo e sulla direzione. E questo può fare la differenza.

E l’Italia può e deve fare la sua parte.

Le aziende italiane e l’AI Act: tra incertezza e aspettative concrete

La regolazione europea rappresenta, per le imprese italiane, più un interrogativo che una certezza. Secondo il rapporto curato da The European House – Ambrosetti e Minsait (maggio 2025) che ho seguito da scientific advisor, oltre il 45% delle aziende italiane intervistate dichiara di conoscere solo in parte l’AI Act, mentre solo una su cinque ha già attivato azioni concrete per prepararsi alla sua applicazione .

Non è una questione di sfiducia ideologica, ma di pragmatismo.

Le aziende, in particolare le PMI, segnalano:

difficoltà interpretative, soprattutto sulla classificazione del rischio e sui modelli GPAI;

• carenza di competenze giuridico-tecniche per affrontare audit, tracciabilità e requisiti di conformità;

assenza di indicazioni chiare da parte delle autorità competenti su cosa debba effettivamente essere fatto nei prossimi mesi .

C’è anche il timore che l’AI Act possa trasformarsi in un onere sproporzionato per chi sviluppa o adotta AI in ambito industriale, manifatturiero o di servizi professionali, senza le risorse delle big tech. 

E infatti, tra le richieste più urgenti, spiccano:

linee guida semplici e operative per la compliance;

supporto consulenziale e formativo per le PMI;

• l’apertura effettiva di sandbox regolatorie anche in Italia, per testare sistemi innovativi in ambienti protetti .

Tuttavia, non mancano segnali positivi: il 65% delle aziende ritiene che una regolazione chiara possa aumentare la fiducia di clienti e stakeholder nell’uso dell’AI. E una su tre considera l’AI Act come una possibile leva competitiva, se accompagnata da investimenti e semplificazioni .

Il messaggio è chiaro: le aziende italiane non chiedono meno regole, chiedono regole applicabili. 

Serve un piano di accompagnamento nazionale che trasformi un regolamento europeo in una opportunità industriale concreta.

Articoli correlati