Normative

AI e Legge 132/2025: una regolazione in bilico



Indirizzo copiato

La legge rappresenta il primo tentativo italiano di disciplinare l’intelligenza artificiale nel solco dell’AI Act europeo. L’articolo analizza criticità e ambiguità normative, con particolare attenzione all’AI generativa, ai problemi di responsabilità, governance comportamentale e alla mancanza di investimenti strutturali, evidenziando i rischi per l’autonomia tecnologica del Paese

Pubblicato il 24 dic 2025

Luca Mari

Professore Ordinario Scuola di Ingegneria Industriale dell'Università Cattaneo – LIUC

Simone Simoncini

consigliere Associazione SIF ETS – Social Impact Finance



Legge 132/2025 AI

La legge delega n. 132 recentemente emanata dal Parlamento Italiano in tema di intelligenza artificiale e impone una riflessioni su alcune sue possibili conseguenze concrete, nella consapevolezza che l’intelligenza artificiale, soprattutto nella sua versione generativa, sia un fenomeno sociale e culturale, e non solo tecnologico, di grande rilevanza, rispetto al quale è certamente utile porsi come osservatori in ascolto attivo, cercando di comprenderne i molteplici aspetti e interrogandosi su come favorirne un utilizzo consapevole.

Il contesto

Le tecnologie dell’informazione e il calcolo automatico sono tradizionalmente associati a sistemi progettati per eseguire successioni preordinate di istruzioni in accordo a regole rigide e deterministiche. Con l’avvento dei sistemi ad apprendimento automatico (machine learning) è emersa una nuova prospettiva, in cui i sistemi possono apprendere comportamenti dai dati anziché processarli secondo regole codificate. Quando oggi si dice “intelligenza artificiale” si intende appunto, con poche eccezioni, machine learning.

Le caratteristiche del machine learning

È plausibile che il fatto che un sistema sia a comportamento appreso, invece che programmato, sia rilevante per stabilire le condizioni di un suo impiego appropriato, a partire da come esso gestisce le relazioni causali. Quando la logica del comportamento di un sistema è definita tramite regole esplicite, come avviene nella programmazione, è di principio possibile risalire alle cause degli errori o dei comportamenti indesiderati che si osservano, e con ciò si può intervenire correggendo il codice, cioè facendo debugging.

Certo, la possibilità di risalire alla causa di un errore o di un comportamento indesiderato non garantisce che si riesca a riparare sempre e in tempo utile agli eventuali danni causati, ma ormai decine di anni di esperienza ci mostrano che i processi di sviluppo e di manutenzione del software programmato sono generalmente affidabili.

Il nuovo paradigma dell’AI

Anche da questo punto di vista, il paradigma dell’AI è nuovo: poiché il comportamento del sistema non è progettato a priori, il suo funzionamento interno resta, almeno in parte, opaco anche agli sviluppatori, con la conseguenza che individuare e risolvere la causa di un comportamento anomalo può risultare molto più difficile che nel caso di un sistema programmato[1].

Cathy O’Neil raccontava già nel 2016 di importanti e frequenti distorsioni in alcuni processi rilevanti per la convivenza sociale derivanti da complessità, autoreferenzialità e bias insiti negli algoritmi di scoring e nelle metodologie di rilevazione dei dati nei sistemi di machine learning[2], ben prima che arrivasse ciò che oggi conosciamo come AI generativa. La grande diffusione dei chatbot, con cui praticamente chiunque può oggi facilmente interagire, sta rendendo ancora più delicata la valutazione della qualità del comportamento di tali sistemi, e quindi in particolare dei dati su cui essi vengono addestrati, proprio per la maggiore difficoltà – o la pratica impossibilità – di risalire esattamente alle cause di un comportamento messo in atto dal sistema e giudicato non appropriato o socialmente accettabile.

Dato tutto ciò, non è sorprendente che già da diversi anni il Parlamento Europeo abbia iniziato a interrogarsi su questo delicato tema, proponendo una lettura dell’AI che pone come principi la protezione degli interessi pubblici e dei diritti fondamentali delle persone, in un percorso che ha trovato il suo attuale culmine nel 2024 con la promulgazione dell’AI Act[3].

Esplicitamente su questa base, l’Italia ha dato una sua prima declinazione della disciplina europea con la Legge 132/2025[4].

È allora utile interrogarsi sui termini in cui l’adozione di una regolamentazione specifica in Europa e in Italia, in anticipo rispetto ai principali Paesi protagonisti di questa rivoluzione culturale ed economica, possa essere di guida per i criteri di adozione e uso dell’AI nella vita economica e sociale.

Legge 132/2025 AI

Note sul quadro giuridico

Nel 2017 il Parlamento Europeo prese in esame una proposta, forse troppo ardita per i tempi, che sollevava il problema dello status giuridico da assegnare alle forme di AI avanzata[5]. Il punto centrale in discussione era l’individuazione di un regime giuridico nei casi in cui, mediante l’utilizzo di sistemi di AI avanzata, non potesse essere individuata una chiara attribuzione di responsabilità per gli accadimenti connessi a tale utilizzo.

La proposta non considerava l’AI generativa, ovviamente, ed era invece focalizzata sulla robotica. La risoluzione del Parlamento Europeo invitava la Commissione a valutare opzioni come l’adozione della personalità elettronica, l’assicurazione obbligatoria e la registrazione dei robot.

La proposta trovò una fiera opposizione presso la comunità scientifica, che si espresse a livello europeo nell’aprile 2018 con una lettera aperta, firmata da oltre 150 esperti, in cui si nega che la via corretta per sviluppare un framework legale sia l’adozione della personalità elettronica o comunque di un altro schema che riconosca dignità giuridica a entità artificiali[6].

Negli anni successivi il tema dell’inquadramento giuridico dell’AI uscì dal dibattito. E nel frattempo, come spesso avviene, gli accadimenti hanno seguito una loro strada autonoma. Se quanto scritto nella lettera aperta ha forti elementi di condivisibilità sul piano teorico, l’avvento dei sistemi di AI generativa ha radicalmente cambiato le prospettive, indipendentemente dal quadro regolamentare peraltro mai compiutamente formato. In questa prospettiva, è significativo che recentemente alcuni studiosi abbiano ripreso la discussione della soggettività di questi sistemi sul piano ontologico e della filosofia del diritto[7] e che alcune autorevoli voci inizino a esprimere la convinzione che tale riflessione sia diventata un’urgenza sul piano sociale[8].

Considerazioni di merito

Un quadro giuridico così complesso, anche perché riferito a un fenomeno tecnologico in rapida evoluzione, suggerisce prese di posizione prudenti, soprattutto in considerazione del netto divario di capacità di sviluppo tecnologico e di risorse finanziarie con cui si muovono i diversi attori nello scenario complessivo, una differenza che rischia di rendere la regolamentazione inefficace o di accrescere ulteriormente la nostra dipendenza tecnologica da grandi aziende extraeuropee. Contribuisce poi a questa complessità l’ampia disponibilità di sistemi di AI “aperti”[9], che qualsiasi organizzazione può di principio liberamente utilizzare, e ancor prima addestrare, in uno scenario ancora in via di definizione e che potrebbe configurarsi in forme alternative, di emancipazione tecnologica ma anche di incontrollabile anarchia. Tentare di disciplinare a priori un fenomeno di cui non si possiedono né le chiavi di sviluppo né una sufficiente visibilità tecnica rischia di tradursi in una regolamentazione formale priva di reale capacità di incidere sui rischi sistemici, e invece, paradossalmente, efficace nell’inibire la diffusione di quanto di positivo c’è nel fenomeno stesso.

I principi di base della Legge 132/2025

In questa situazione, la Legge 132/2025 fissa, o ribadisce, dei principi di base relativi all’utilizzo dei sistemi di AI, e quindi pone l’attenzione su alcuni aspetti del loro utilizzo e delinea un quadro che potremmo definire di governance amministrativa. Avendo come riferimento lo scenario delineato sopra, e con l’obiettivo di offrire un contributo costruttivo per uno sviluppo appropriato di un sistema di regole, in grado di promuovere l’innovazione ma anche di minimizzarne i rischi, proponiamo qualche semplice considerazione su quelli che ci sembrano dei punti critici della Legge.

I “sistemi di intelligenza artificiale”

La prima questione che poniamo ha a che vedere con l’oggetto stesso della Legge, cioè con quelli che la Legge stessa chiama “sistemi di intelligenza artificiale”. Forse inevitabilmente, la Legge non introduce una propria definizione, ma si rifà esplicitamente (all’Art. 2) a quella contenuta nell’AI Act.

Da questo (all’Art.3, punto 1) leggiamo dunque la definizione di ciò che si sta normando: un sistema di AI è “un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali”.

Non c’è bisogno di essere esperti di AI né di terminologia per notare quanto sia generica questa definizione: è ben possibile che sia il risultato della decisione di non voler delimitare a priori troppo il campo di applicazione dell’AI Act, oltre che forse di una serie di compromessi, ma quello che si è ottenuto è che – per fare un esempio volutamente provocatorio – alla luce di questa definizione il termostato di un frigorifero potrebbe essere considerato un sistema di AI

Ovviamente non è ciò che ci si può aspettare dall’applicazione concreta della Legge 132, ma questa estrema genericità pare il segno di un’incertezza, e forse di una confusione, ancora diffusa.

Legge 132/2025 AI

La Legge 132/2025 e i modelli generativi

Non sorprendentemente, dunque, la Legge menziona i modelli generativi soltanto in due punti (agli Art. 5 e 25). I modelli generativi sono una categoria di sistemi di AI, e perciò senza dubbio la Legge è intesa applicarsi anche a essi. Tuttavia, trattare i modelli generativi come semplici casi particolari di un insieme più ampio ne oscura la natura trasformativa: la capacità di produrre contenuti inediti, di simulare ragionamenti complessi, di operare come agenti parzialmente o completamente autonomi.

Su questo punto la Legge sembra non cogliere la sostanza del fenomeno che stiamo vivendo: equiparare normativamente l’AI generativa ai sistemi tradizionali di machine learning pare un errore di prospettiva analogo a quello di chi, agli albori del web, avesse tentato di regolare Internet applicando pedissequamente le norme sulla stampa o sulle telecomunicazioni telefoniche.

La plausibile conseguenza è un’incertezza giuridica. Consideriamo il caso di una PMI italiana che intenda impiegare un modello aperto addestrato localmente: in assenza di norme specifiche per l’AI generativa, l’azienda si trova esposta a un regime di responsabilità ambiguo, se debba rispondere come mero utilizzatore o come sviluppatore di un sistema ad alto rischio, un’incertezza normativa che rischia di diventare un freno agli investimenti.

Legge 132 e governance etica

Una seconda questione che proponiamo di considerare è la focalizzazione della Legge 132 sull’utilizzo dei sistemi di AI, con un rimando implicito all’AI Act per tutto quello che concerne invece la governance etica e comportamentale di tali sistemi. Il punto è che l’esperienza di questi tre anni ci mostra che i sistemi di AI generativa, e i chatbot in particolare, sono diventati degli attori sociali, con cui le persone si relazionano quotidianamente. Questo dato di realtà potrebbe suggerire al legislatore di superare il modello tradizionale di accountability, focalizzando le policy di compliance e controllo sul comportamento effettivo dei sistemi di AI e sui processi di verifica etica.

A loro volta, le aziende e gli enti che usano i modelli generativi si trovano di fronte alla possibilità di introdurre dei veri e propri attori sintetici nei loro processi, attori che, a certe condizioni, possono imparare in autonomia[10] e anche modificare le proprie logiche di apprendimento[11]. Questo suggerisce la necessità di un cambio di paradigma, in cui le specifiche di addestramento e di funzionamento dei sistemi di AI non dovrebbero essere considerate mera documentazione tecnica ma atti con valore giuridico di compliance, in analogia con le regole etiche e il regime di responsabilità delle risorse umane.

Tale analogia potrebbe fornire un modello operativo per definire l’ambito di responsabilità e gli obblighi di compliance per i soggetti controllori e utilizzatori dei sistemi di AI.

Sarebbe quindi utile che le peculiarità dei modelli generativi si riflettessero nella normativa, superando dunque la sola documentazione formale, attraverso la richiesta di elementi che possano essere oggetto di audit relativamente a come il rispetto delle regole etiche sia garantito, per esempio attraverso specifiche dettagliate e obblighi di verifica preventiva dei bias e dei rischi del sistema.

L’adozione di policy aziendali coerenti sarebbe facilitata da un quadro normativo che tenga di conto delle necessità pratiche di implementazione. Questo potrebbe consentire un assetto di governance dei modelli generativi che eviti un’eccessiva onerosità e focalizzazione su aspetti formali e incentivi invece allo sviluppo di soluzioni personalizzate sulle esigenze delle aziende, senza la necessità del ricorso sistematico ai sistemi dalle big tech americane.

Legge 132 e clausola di invarianza (Art 27)

Una terza questione su cui invitiamo a una riflessione è relativa alla presenza di una clausola di invarianza (all’Art. 27) in una Legge che ambisce a delineare la strategia nazionale sull’IA. Tale vincolo risulta assai critico, considerando che nel settore dell’AI gli investimenti globali sono misurati in ordini di grandezza nettamente superiori a quelli a cui la Legge fa riferimento.

È ragionevole supporre che questa sostanziale assenza di risorse dedicate contribuirà a una ridotta enfasi sulla ricerca di base, depotenziando così in modo significativo le possibilità di recuperare una qualche forma di autonomia tecnologica nel settore dell’AI.

Conclusioni

La Legge 132 è un primo passo per inquadrare l’AI in un contesto normativo, ma il suo impatto e la sua efficacia strategica rimangono in bilico tra la necessità di regolamentare e l’urgenza di non compromettere la possibilità di competere. Il punto maggiormente rilevante per un recupero di autonomia tecnologica pare costituito da investimenti mirati. Per tale ragione, il punto di maggiore criticità che ci si augura venga superato nei decreti attuativi è la presenza della clausola di invarianza finanziaria (come ribadito nell’Art. 23, comma 1 della stessa Legge): senza uno stanziamento di risorse specifiche, l’obiettivo di posizionamento tecnologico italiano potrebbe essere strutturalmente compromesso e si rischia di non fare altro che regolamentare ciò che viene sviluppato altrove.

È inoltre auspicabile che in fase di stesura delle norme di dettaglio siano approfondite le tematiche relative a una specifica regolamentazione della governance comportamentale dei sistemi di AI generativa e del regime di responsabilità, in modo da facilitare l’introduzione di questa tecnologia all’interno dei processi operativi e di governance di aziende ed enti in un quadro di maggiore certezza giuridica.

Note

  1. Si veda per esempio M. Robeyns et al., A self-Improving coding agent, 2025.

2. È il tema della (difficile) interpretabilità del comportamento dei sistemi di intelligenza artificiale. Al proposito OpenAI ha recentemente proposto un’interessante analisi: Understanding neural networks through sparse circuits.

3. C. O’Neil, Armi di distruzione matematica, 2016.

4. Regolamento (UE) 2024/1689 del Parlamento Europeo e del Consiglio del 13 giugno 2024 che stabilisce regole armonizzate sull’intelligenza artificiale.

5. Legge 23 settembre 2025, n. 132: “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”.

6. Relazione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica, 2017.

7. Open letter to the European Commission Artificial Intelligence and robotics.

8. C. Novelli, L. Floridi, G. Sartor, G. Teubner, AI as legal persons: past, patterns, and prospects, Journal of Law and Society, 2025.

9. K.B. Forrest, The ethics and challenges of legal personhood for AI, Yale Law Journal, 2024.

10.https://huggingface.co/models.

11. Si veda per esempio A. Zhao et al., Absolute zero: reinforced self-play reasoning with zero data, 2025.

Per la redazione del presente articolo sono stati usati NotebookLM per l’organizzazione dei documenti e delle operazioni di RAG, e Perplexity Pro per la ricerca su fonti specifiche.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x