Con l’approvazione definitiva al Senato, l’Italia si è dotata della sua prima legge organica sull’intelligenza artificiale. Un passaggio storico, che definisce principi chiari: l’uso dell’AI deve essere antropocentrico, trasparente, sicuro, rispettoso dei diritti fondamentali e della democrazia.
La legge introduce un quadro normativo nazionale coerente con l’AI Act europeo, stabilendo che i sistemi e i modelli di AI devono essere sviluppati garantendo sorveglianza e intervento umano, prevenzione del danno, tutela della cyber-sicurezza lungo l’intero ciclo di vita e piena accessibilità per le persone con disabilità.
Indice degli argomenti:
Le linee guida e l’articolazione della legge
Il provvedimento si articola in tre capi e definisce in maniera puntuale finalità, ambiti di applicazione e regole di settore.
- Principi generali e diritti fondamentali (Capo I, artt. 1-6): la legge sancisce che ricerca, sviluppo e utilizzo dell’AI debbano avvenire nel rispetto dei diritti costituzionali, della trasparenza, della protezione dei dati personali e della non discriminazione. È vietato un uso che pregiudichi la vita democratica del Paese. Centrale è l’obbligo di cybersicurezza come precondizione essenziale.
- Settori strategici (Capo II, artt. 7-18): sono previste regole dedicate per ambiti chiave:
- Sanità: AI come supporto a diagnosi e cure, ma la decisione resta al medico; obbligo di informare i pazienti e aggiornare i sistemi.
- Disabilità: promozione di soluzioni per mobilità, inclusione e autonomia.
- Lavoro: obblighi di trasparenza per i datori, divieto di discriminazione e istituzione presso il Ministero del Lavoro di un Osservatorio sull’impatto dell’AI, con funzioni di monitoraggio e formazione.
- Pubblica amministrazione: uso dell’AI per efficienza e qualità dei servizi, garantendo tracciabilità e responsabilità umana finale.
- Giustizia: nessuna decisione automatizzata; ogni valutazione resta prerogativa del magistrato.
- Cybersicurezza: l’AI è riconosciuta come risorsa strategica per la resilienza nazionale.
- Strategia nazionale e governance (Capo III, artt. 19-23): viene istituita una strategia nazionale per l’AI aggiornata ogni due anni dalla Presidenza del Consiglio. Sono designate AgID e ACN come Autorità nazionali di riferimento. È previsto un comitato di coordinamento interministeriale e viene autorizzato un miliardo di euro complessivo per investimenti in AI, cyber-sicurezza e calcolo quantistico attraverso CDP Venture Capital.
Il nodo delle risorse: un approccio duale
Questo impianto normativo è importante, ma rischia di essere insufficiente se non accompagnato da risorse adeguate. La legge è vincolata alla clausola di invarianza finanziaria, il che significa che molte misure dipendono dalle risorse già esistenti.
Per superare questa criticità, vorrei rilanciare la proposta di un approccio duale: destinare una quota dell’incremento del budget della Difesa – cui l’Italia si è impegnata in sede NATO – a progetti di AI a uso civile.
L’incremento programmato vale circa 32 miliardi di euro in dieci anni. Se anche solo il 20-30% fosse destinato a progetti AI dual use, si libererebbero tra i 325 e i 500 milioni l’anno. Risorse sufficienti per finanziare programmi nazionali di grande respiro, con applicazioni in cyber-sicurezza, sanità pubblica, logistica di emergenza, robotica collaborativa, protezione ambientale ed energia.
Una visione europea per colmare il gap
Parallelamente, serve un coordinamento europeo. Mentre Stati Uniti e Cina investono miliardi l’anno in AI, l’Europa si muove con programmi ancora frammentati. L’Italia deve spingere per un piano industriale UE integrato, che metta in comune risorse, supercalcolo, centri di eccellenza e formazione avanzata. Solo così l’UE potrà ridurre il gap tecnologico e posizionarsi come terzo polo globale.

Confronto internazionale: la posta in gioco
Il divario con i Paesi leader si misura in cifre chiare. Gli Stati Uniti hanno stanziato oltre 3,4 miliardi di dollari di investimenti pubblici federali per il biennio 2025-2026, puntando su difesa, sanità e infrastrutture di calcolo condivise.
La Cina supera i 10 miliardi di dollari l’anno, concentrandosi su smart city, sanità predittiva e autonomia nei chip.
Francia e Germania hanno varato piani pluriennali per centinaia di milioni di euro, mentre il Regno Unito investirà 2,5 miliardi di sterline entro il 2026.
Di fronte a questi numeri, l’Italia non può permettersi esitazioni. Serve un salto di scala negli investimenti e un’azione coordinata a livello europeo. Senza questa accelerazione, rischiamo di restare periferici in un’innovazione che ridisegnerà gerarchie economiche e geopolitiche nei prossimi dieci anni.
Il tema delle competenze e AI4Safety
La legge prevede l’istituzione di un Osservatorio sull’AI nel lavoro. Questo punto è cruciale, perché senza competenze diffuse rischiamo di generare nuove disuguaglianze.
In questa direzione si muove l’Osservatorio GAILIH, che ho l’onore di dirigere, con il progetto AI4Safety: una piattaforma nazionale per la prevenzione e la gestione della sicurezza sul lavoro, basata su AI predittiva e sensoristica avanzata. L’iniziativa, che intendiamo proporre anche al nuovo Osservatorio del Ministero del Lavoro, mira a coniugare innovazione tecnologica, sostenibilità sociale e competitività industriale.
Conclusioni: da spettatori a protagonisti
Con questa legge, l’Italia ha compiuto un passo importante. Ma la vera sfida inizia ora: trasformare principi e regole in azioni concrete. Servono risorse adeguate, un coordinamento europeo e un investimento massiccio sulle competenze.
La domanda di fondo è chiara: vogliamo essere spettatori o protagonisti della rivoluzione dell’intelligenza artificiale?
Sono convinto che l’Italia debba giocare da protagonista. E per farlo, dobbiamo dare gambe solide a questa legge: risorse, visione europea e capitale umano. Solo così l’AI diventerà non una minaccia, ma un’opportunità di sviluppo, competitività e sicurezza per tutti.







