Normative

Entra in vigore la legge 132/2025: l’Italia detta le nuove regole per l’AI



Indirizzo copiato

Si tratta della prima norma organica italiana sull’intelligenza artificiale. Allineata al Regolamento UE 2024/1689 (AI Act), introduce obblighi di trasparenza, nuove responsabilità penali e civili, tutela contro i deepfake, divieti di discriminazione automatizzata e percorsi di formazione professionale. I commenti di esperti e associazioni

Pubblicato il 10 ott 2025



Legge 132/2025 vigore

Il 10 ottobre 2025 entra in vigore la Legge 23 settembre 2025, n. 132, recante “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, pubblicata sulla Gazzetta Ufficiale n. 223 del 25 settembre 2025.

La Legge disciplina per la prima volta in modo organico l’impiego dell’intelligenza artificiale, allineandosi al 𝗥𝗲𝗴𝗼𝗹𝗮𝗺𝗲𝗻𝘁𝗼 𝗨𝗘 𝟮𝟬𝟮𝟰/𝟭𝟲𝟴𝟵 già in vigore. Non è una legge “tecnologica”: è una norma che tocca la responsabilità degli enti e la costruzione dei modelli 231 e inserisce nel nostro ordinamento numerose altre regole per chiunque abbia a che fare con l’intelligenza artificiale, ed è bene saperlo.

“La Legge 132/2025 sull’intelligenza artificiale apre un nuovo scenario per tutte le professioni intellettuali, ordinistiche e non”, scrive Giuseppe Corasaniti, professore ordinario di informatica giuridica ed etica digitale Università Mercatorum, in un post su LinkedIn. “Non si tratta solo di un cambio tecnologico, ma di un cambiamento normativo profondo: obblighi di trasparenza verso clienti e pazienti, nuovi doveri deontologici, rischi di responsabilità civile, penale e disciplinare, necessità di aggiornamento tecnico e giuridico costante”.

Si tratta, insomma, di una legge quadro che contiene obblighi, opportunità e strumenti di intervento pubblico che devono guidare lo sviluppo dell’AI nel contesto industriale e sociale italiano.
“L’Italia, ha deciso di guardare l’algoritmo nei bit. Con la Legge 23 settembre 2025, n. 132, infatti, nasce un quadro che richiama l’IA al servizio della persona”, afferma Agostino Ghiglia, membro del Collegio del Garante per la protezione dei dati personali presso Autorità Garante della Privacy. “Siamo il primo Paese dell’Unione Europea con una normativa organica dedicata all’intelligenza artificiale. Il testo, composto da 28 articoli, definisce principi chiari per sanità, lavoro, ricerca, professioni e tutela dei minori. In questi ambiti, l’AI dovrà restare strumento ausiliario, mai giudice o decisore”.

“L’Europa si è ormai affermata come punto di riferimento globale nella regolamentazione dell’intelligenza artificiale”, commentano da Anitec-Assinform. “Con l’approvazione dell’AI Act nel luglio 2024, l’Unione ha compiuto un passo decisivo, introducendo per la prima volta un quadro normativo trasversale per lo sviluppo e l’uso di questa tecnologia. In questo contesto, l’Italia si è distinta come primo Paese dell’Unione ad aver dato seguito all’AI Act con una norma nazionale di rango primario. Si tratta di un primato significativo, che riflette la volontà del Paese di giocare un ruolo da protagonista nella transizione digitale europea. Quest’ultima è però una sfida ambiziosa, non basterà la singola legge, ma serviranno visione strategica di lungo periodo e politiche coordinate”.

In sintesi: cosa cambia con l’introduzione della Legge n.132

➡️ Deepfake illeciti: 1-5 anni di reclusione
➡️ Aggravanti per aggiotaggio e manipolazioni
➡️ Nuovi obblighi per professionisti tech e digital
➡️ Responsabilità diretta per chi usa AI senza verifiche

Come cambia l’ordinamento la legge n. 132

Una delle novità di maggiore rilievo della nuova legge è l’introduzione dell’art. 612-quater del codice penale, che punisce con la reclusione da uno a cinque anni chi diffonde, senza consenso, immagini, video o voci falsificati tramite AI e idonei a trarre in inganno – i cosiddetti “deepfake”. La procedibilità è a querela, salvo aggravanti legate a particolari condizioni o soggetti coinvolti. Non più zona grigia, quindi: chi diffonde contenuti manipolati con AI senza consenso rischia il carcere.

Giuseppe Corasaniti, nel suo post, si interroga sulla validità del reato di diffusione illecita mediante IA: “Si tratta di una risposta davvero efficace o un intervento prematuro e vago? La norma presenta criticità fin troppo evidenti: condotta troppo generica (‘contenuti generati o manipolati con IA’), difficile accertamento del dolo, rischio di conflitto con reati già esistenti (diffamazione, trattamento illecito dati), aggravanti tecnologiche senza un sistema tecnico per chi dovrebbe poi accertarle.
Il tutto in assenza di: standard forensi sull’uso dell’IA, linee guida europee armonizzate, criteri probatori chiari. Il rischio vero, allora, per le tecnologie è quello di un diritto penale proclamatorio inefficace, incerto e sproporzionato e, alla fine, senza neppure un’attenzione reale agli strumenti di accertamento effettivo dei reati presentati come soluzione ai mille problemi e ai mille rischi che ogni giorno la tecnologia pone”.

Le modifiche al Codice penale

  • Art. 61 c.p.: introdotta l’aggravante per i reati commessi mediante AI, se questa costituisce mezzo insidioso o ostacola la difesa.
  • Art. 294 c.p.: per gli attentati ai diritti politici del cittadino, la pena sale a due-sei anni se l’inganno avviene tramite AI.

Gli interventi sul Codice civile e sul TUF

Art. 185 TUF: per manipolazioni finanziarie realizzate tramite AI, pene da due a sette anni di reclusione e multe da 25.000 a 6 milioni di euro.
Art. 2637 c.c. (aggiotaggio): reclusione da due a sette anni se commesso con l’uso di AI.

L’impatto sul mondo del lavoro e i professionisti

La sensazione, da parte di molti osservatori, è che il mondo del lavoro non sia ancora preparato per l’applicazione di questa legge, nonostante di queste norme si parli dall’aprile del 2024 (data di presentazione del disegno di legge governativo al Senato). “E non solo perché la piena attuazione della norma passa da 12 tra decreti e provvedimenti attuativi o perché si tratta di una legge ‘a costo zero’, afferma Ernesto Belisario, avvocato, senior partner dello Studio Legale E-Lex. “Credo che ci sia una questione centrale che si chiama AI literacy, cioè ‘alfabetizzazione in materia di intelligenza artificiale’. Senza quella, nessuna legge potrà davvero funzionare”.

Le disposizioni in materia di lavoro, professioni intellettuali e pubbliche amministrazioni, previste dalla legge 132 non sono di facile interpretazione e applicazione.

“Gli articoli 11, 13 e 14 impongono a imprese, professionisti e PA di dichiarare quali sistemi di IA utilizzano e in che modo”, prosegue Belisario. “Si tratta di principi doverosi, ma siamo sicuri che tutti coloro che già usano l’intelligenza artificiale siano in grado di capirne caratteristiche, rischi e potenzialità in modo da assicurare non solo il rispetto della norma ma anche una vera (e non burocratica) trasparenza?”.

Alle parole di Belisario fanno eco quelle di Corasaniti: “La legge impone a singoli professionisti di conoscere e comunicare l’uso dell’IA, ma la vera risposta dev’essere collettiva: serve un coordinamento tra Ordini, Associazioni, Università e Istituzioni; vanno armonizzati codici deontologici, standard operativi, polizze assicurative, modelli informativi. In un contesto in cui le decisioni automatizzate rischiano di incidere su diritti fondamentali, etica e competenza professionale devono restare al centro. È il momento di agire, insieme”.

Per amministratori, organi di controllo e CEO la conseguenza è lampante: occorre aggiornare i modelli organizzativi, rivedere la mappatura dei rischi-reato e rafforzare i presidi di controllo sui processi in cui l’AI entra nella gestione aziendale.

L’innovazione non esclude la responsabilità: la Legge 132/2025 impone di integrarle, trasformando la governance dell’AI in un fattore di solidità, trasparenza e competitività per l’impresa.

“Guardando ai contenuti della Legge italiana sull’IA, vediamo come essa introduca elementi di rilievo per i cittadini e le imprese”, è il commento di Anitec-Assinform. “In primo luogo, riafferma i principi di trustworthy AI e human-centered AI, già richiamati dall’AI Act europeo. Il Capo I individua chiaramente i valori guida dell’intero ciclo di vita dei sistemi di IA: trasparenza, sicurezza, affidabilità dei dati, non discriminazione e sostenibilità. Centrale resta il controllo umano e l’autonomia decisionale, con attenzione alla spiegabilità dei sistemi e alla prevenzione dei danni. Positiva anche la scelta di considerare la cybersecurity come elemento essenziale per la resilienza dei sistemi dalla progettazione all’implementazione operativa. Ma ciò che più conta, dal nostro punto di vista, è che la legge chiarisca la piena coerenza con la normativa europea e non introduca oneri aggiuntivi per le imprese che devono certificare i propri prodotti, favorendo chiarezza, uniformità di applicazione e tutela della competitività delle aziende. In questo contesto, è utile ricordare che le fughe in avanti nella regolazione dell’AI rappresentano un rischio concreto: frammentano il mercato, aumentano i costi di conformità e ostacolano l’innovazione”, conclude Anitec-Assinform.

Vietate le forme di discriminazione automatizzata sul lavoro

“Nel lavoro è vietata ogni discriminazione automatizzata: la decisione resta umana”, aggiunge Agostino Ghiglia. “In sanità, le macchine supportano diagnosi e ricerca, ma il medico non abdica al giudizio. La Legge, e non potrebbe essere altrimenti, trova la sua base robusta nel GDPR: l’uso dell’AI deve avvenire ‘nel rispetto del GDPR e del diritto dell’Unione europea in materia di dati personali’. Gli articoli 5, 8, 9, 22, 25 e 32 (direttamente o indirettamente citati nel testo) e l’art. 58 del Codice Privacy, costituiscono lo scheletro del provvedimento. Il diritto d’autore – l’art. 25 della Legge 132/2025 richiama i principi della Legge 22 aprile 1941, n. 633 (Legge sul diritto d’autore) e della Direttiva UE 2019/790 – tutela solo le opere con apporto umano, limitando l’estrazione da contenuti protetti. La sfida è appena iniziata. Perché l’AI può generare progresso o disuguaglianze, cure migliori o menzogne virali. Tutto dipende dall’uomo che la governa e dalla sua educazione civica digitale“, conclude il membro del Garante per la Privacy.

“Sulla disciplina del diritto d’autore, la legge conferma il primato della normativa europea, permettendo l’uso di contenuti protetti per l’addestramento dei modelli di AI, a condizione che il titolare dei diritti possa esercitare l’opzione di opt-out“, fanno notare da Anitec-Assinform. “Si tratta di un equilibrio necessario: tutela la creatività umana e il diritto d’autore, senza ostacolare lo sviluppo dell’IA generativa, che richiede l’accesso a grandi volumi di dati. Questo approccio prudente garantisce certezza agli operatori e coerenza con la strategia europea, evitando frammentazioni normative nazionali.
La legge evidenzia anche il valore concreto della regolazione nelle applicazioni pratiche, con il settore sanitario come esempio emblematico”.

Fatta la legge, ora occorre trovare soluzioni

Quali soluzioni possono essere messe in campo per armonizzare le nuove regole con quelle già esistenti, onde evitare di commettere infrazioni e di essere sanzionati?

“L’unica soluzione, a mio avviso, è accelerare sulle competenze. Istituzioni, ordini professionali, associazioni di categoria, organi di informazione devono fare la loro parte”, afferma Belisario. “E non solo per evitare di parlare solo di sanzioni e responsabilità (penso agli avvocati che stanno apprendendo a loro spese – con le condanne per lite temeraria – cosa sono le ‘allucinazioni’ di un’AI). Ma perché si tratta dell’unica strada per cogliere le opportunità di questa rivoluzione in termini di crescita economica, sviluppo e miglioramento della qualità del nostro lavoro e delle nostre vite. Credo che anche una buona legge – se inattuata – possa essere peggiore di nessuna norma, se crea obblighi formali senza fornire a tutti gli strumenti per rispettarli in modo sostanziale”.

Un quadro normativo per un’AI al servizio della progettazione

La Legge 132/2025 impartisce delle indicazioni chiare sull’uso dell’intelligenza artificiale nelle professioni tecniche.

Il giudizio tecnico, la responsabilità e la trasparenza restano elementi centrali dell’attività professionale, anche in presenza di strumenti automatizzati, perché l’obiettivo è favorire un utilizzo consapevole dell’AI, fondato su competenza, controllo umano e qualità del progetto.

Formazione e compenso: le novità in arrivo con i decreti attuativi

La Legge 132/2025 prevede che i futuri decreti attuativi introducano:

– Percorsi di formazione digitale promossi dagli ordini e dalle associazioni professionali per diffondere competenze specifiche sull’uso dell’intelligenza artificiale;

– Criteri per l’equo compenso, calibrati sui nuovi profili di responsabilità derivanti dall’impiego dell’AI nei processi progettuali.

Si tratta di misure pensate per sostenere una transizione tecnologica equilibrata, che valorizzi il sapere tecnico e le competenze professionali.

In una circolare, il Consiglio Nazionale degli Ingegneri Italiani ricorda ai propri iscritti: “tutti i professionisti italiani, – che intendono avvalersi delle potenzialità
dell’Intelligenza artificiale nello svolgimento della propria attività professionale – sono tenuti, per legge:
I) A utilizzare i sistemi di AI solamente in via strumentale e di supporto all’attività
professionale
, garantendo sempre e comunque che vi sia stata la prevalenza del
lavoro intellettuale oggetto della prestazione d’opera di cui all’incarico ricevuto,
rispetto all’utilizzo degli strumenti di AI;
II) A comunicare con chiarezza di linguaggio e in maniera esaustiva al cliente le
informazioni necessarie relative ai sistemi di intelligenza artificiale utilizzati durante l’attività,
in un’ottica di rapporto di lealtà e di fiducia tra professionista e
committente”.

La legge n.132 in ambito sanitario

La legge n.132 si occupa anche dell’applicazione dell’AI nella sanità. Per Anitec-Assinform, “l’AI in ambito sanitario deve rispettare standard elevati di sicurezza, trasparenza e non discriminazione, riconoscendo al paziente il diritto di essere informato quando viene utilizzata nel percorso diagnostico o terapeutico, mentre la decisione finale resta in capo al medico. La tecnologia viene valorizzata come supporto alla professionalità umana, senza sostituirla. Ma ciò che rende davvero innovativa questa parte della legge sono le disposizioni che favoriscono la ricerca scientifica attraverso basi giuridiche chiare: il trattamento dei dati sanitari per finalità di ricerca è consentito anche senza consenso esplicito del paziente, nel rispetto delle garanzie previste, mentre l’uso secondario dei dati, la pseudonimizzazione e l’impiego di dati sintetici favoriscono lo sviluppo di algoritmi predittivi e diagnostici. Procedure semplificate e piattaforme integrate con il Fascicolo Sanitario Elettronico creano un ecosistema digitale in grado di supportare medici, operatori e cittadini, promuovendo innovazione, sicurezza e accessibilità delle cure. In un settore dove l’AI può davvero fare la differenza queste norme rappresentano un elemento distintivo della legge italiana”.

Le critiche del Movimento Forense: “ennesimo adempimento inutile”

Critiche severe arrivano dal Movimento Forense, che in una nota firmata dal presidente, l’avvocato Elisa Demma, afferma che l’art. 13, comma II, della Legge 132/2025, “prevede un onere informativo nei confronti dei soggetti destinatari della prestazione, in ordine ai sistemi di intelligenza artificiale utilizzati dai professionisti. È doveroso rilevare come la disposizione appaia confusa, confusionaria e, per certi versi, svalutante per l’Avvocatura, laddove pretende di ‘assicurare il rapporto fiduciario tra professionista e cliente’, quasi che tale fiducia non fosse già garantita dagli obblighi deontologici che fondano la professione forense”.
Nel comunicato si legge: “In questo senso, la norma rappresenta l’ennesimo adempimento formale che rischia di svuotare di significato proprio quella consapevolezza che intende tutelare: imporre di comunicare ‘con linguaggio chiaro e semplice’ una serie di informazioni su sistemi tecnologici che, per loro natura, sono tutt’altro che semplici, significa costringere i professionisti a informative standardizzate e di fatto inutili”. E continua: “Si tratta, in definitiva, di una disposizione che ignora la natura etica, culturale e deontologica dell’Avvocatura, riducendo a formalità ciò che da sempre è presidio naturale della professione: la fiducia informata e consapevole tra avvocato e cliente. Per tali ragioni, si chiede al Consiglio Nazionale Forense e all’Organismo Congressuale Forense di impegnarsi affinché venga abrogata la disposizione di cui al comma 2 dell’art. 13. della legge n. 132/2025 e, al massimo, che sia prevista una mera dichiarazione mediante cui il professionista, che si avvale di sistemi di intelligenza artificiale, ne comunica al cliente l’utilizzo in conformità al disposto di cui al comma 1 del medesimo articolo”.

Un punto di partenza, non di arrivo

Quella appena entrata in vigore è una legge che si formerà nel tempo, attraverso i decreti attuativi. Come fanno notare da Anitec-Assinform, infatti: “è fondamentale sottolineare che la legge costituisce un punto di partenza e non un punto di arrivo. L’ampiezza delle deleghe al Governo conferma più di ogni altro elemento che il quadro normativo si completerà progressivamente. Entro dodici mesi, infatti, saranno definite regole su addestramento dei sistemi, responsabilità degli operatori, regime sanzionatorio e contrasto agli usi illeciti dell’IA”.

L’Associazione di Confindustria approfitta del momento storico per mettere in luce i ritardi del sistema economico italiano nell’adozione dell’AI. “C’è però un dato che non possiamo ignorare e che rappresenta un ostacolo per il nostro Paese: nonostante la crescita sostenuta del mercato italiano dell’IA – +38,7% nel 2024, con proiezioni di 1,25 miliardi nel 2025 e 2,5 miliardi nel 2028 – il tasso di adozione resta basso: solo l’8,2% delle imprese italiane utilizza almeno una tecnologia di IA, contro una media UE del 13,2%. La tecnologia rimane concentrata nelle grandi aziende e nei settori avanzati, mentre le PMI faticano a introdurla. Ne consegue che, oltre alla normativa, la vera sfida è aumentare il tasso di adozione e portare benefici concreti alle imprese e ai cittadini. Servono investimenti in formazione, programmi di accompagnamento per le PMI, semplificazione dell’accesso alle tecnologie e sviluppo di competenze diffuse. È necessario promuovere casi d’uso chiari, dimostrazioni di valore economico tangibile ed ecosistemi collaborativi tra università, centri di ricerca e imprese. La legge crea un ambiente favorevole, ma l’adozione dipenderà dalla capacità del Paese di trasformare l’IA in leva strategica per la crescita”, conclude Anitec-Assinform.

Scarica il testo della Legge n. 132/2025 sull’IA




Articoli correlati