normative

DDL AI: le osservazioni dell’Unione delle Camere Penali Italiane



Indirizzo copiato

L’UCPI ha segnalato criticità non risolte nel disegno di legge sull’intelligenza artificiale approvato dalla Camera il 25 giugno 2025: dall’impiego dell’AI in ambito giudiziario alle nuove aggravanti penali, fino alla delega al Governo sull’uso investigativo. Centrale il rischio della “black box”, che mina trasparenza e verificabilità nel processo penale

Pubblicato il 3 set 2025



ecosistema normativo europeo

Lo scorso 2 settembre, l’Osservatorio Scienza Processo e Intelligenza Artificiale dell’Unione Camere Penali Italiane (UCPI) ha pubblicato le proprie osservazioni sul DDL governativo in materia di intelligenza artificiale approvato il 25 giugno 2025 dalla Camera dei Deputati, e già approvato in prima lettura dal Senato.

Sul documento inizialmente presentato dal Governo ad aprile 2024, la Giunta UCPI si era già espressa con una nota del 6 maggio 2024, evidenziando alcuni elementi di criticità. Rispetto al testo normativo all’esame del Parlamento, molte sono le novità da segnalare; se da un lato alcune di queste novità sembrano aver preso in considerazione, almeno in parte, i rilievi espressi dall’Unione anche in altri documenti, molte sono le problematiche che permangono.

Impiego dell’intelligenza artificiale nell’attività giudiziaria

L’articolo relativo all’impiego dell’intelligenza artificiale nell’attività giudiziaria (ora art. 15) è stato riformulato e ampliato. Nel testo in approvazione scompare, anzitutto, la limitazione dell’utilizzo dei sistemi artificiali “per l’organizzazione e la semplificazione del lavoro giudiziario, nonché per la ricerca giurisprudenziale e dottrinale” (si veda l’avverbio “esclusivamente” utilizzato nell’art. 14 co. 1 del DDL iniziale del 2024).

Il testo governativo viene ripreso solo in relazione alla competenza del Ministero della Giustizia, chiamato a disciplinare gli “impieghi dei sistemi di intelligenza artificiale per l’organizzazione dei servizi relativi alla giustizia, per la semplificazione del lavoro giudiziario e per le attività amministrative accessorie”.

Viene, inoltre, ampliata la “clausola di riserva” per il magistrato (“è sempre riservata al magistrato ogni decisione sull’interpretazione e sull’applicazione della legge, sulla valutazione dei fatti e delle prove e sull’adozione dei provvedimenti”), rafforzata e posta come principio in apertura dell’articolo 14, al comma 1.

Vengono infine introdotte disposizioni in merito all’autorizzazione delle sperimentazioni dei sistemi di AI negli uffici giudiziari – art. 15 co. 3 – e al relativo obbligo di formazione del personale giudiziario (magistrati e personale amministrativo) – art. 15 co. 4.

Le modifiche al Codice penale

Con riferimento alle modifiche al codice penale e alle leggi collegate (ora art. 26), il testo approvato dalla Camera dei Deputati conferma l’introduzione di un’aggravante comune per l’uso dell’AI (art. 61 n. 11-decies c.p.) e dell’aggravante ad effetto speciale legata all’uso dei sistemi di AI con riferimento al reato di aggiotaggio; ugualmente, viene mantenuta la creazione del nuovo reato di illecito utilizzo dei contenuti generati dall’AI e ampliato il novero delle condotte penalmente rilevanti in materia di “plagio”.

Infine, la delega al Governo (attuale art. 24) ha subìto modifiche strutturali. Se da un lato sono stati, in parte, meglio specificati i criteri direttivi, dall’altro è stato ampliato il ventaglio delle ipotesi oggetto di delega; a titolo esemplificativo, sono oggi inclusi i casi di realizzazione e di impiego illeciti di sistemi di AI (co. 3), l’utilizzo di sistemi di AI per l’attività di polizia (co. 2 lett. h), l’utilizzo di sistemi di AI in fase di indagini preliminari (co. 5 lett. e).

Utilizzo di sistemi di AI nelle indagini preliminari

Proprio quest’ultimo tema costituisce una delle novità maggiori, che colma un’importante lacuna denunciata dall’UCPI già nel maggio 2024. L’attuale art. 24 co. 5 lett. e) demanda al Governo la “regolazione dell’utilizzo dei sistemi di intelligenza artificiale nelle indagini preliminari nel rispetto delle garanzie inerenti al diritto di difesa e ai dati personali dei terzi, nonché dei principi di proporzionalità, non discriminazione e trasparenza”.

Tuttavia, se da una parte si è riconosciuta la necessità di disciplinare in modo specifico l’uso dell’AI per la sola fase investigativa, dall’altra la scelta di rimettere la questione regolatoria interamente al Governo, pur richiamando i principi di proporzionalità, non discriminazione e trasparenza, appare fortemente critica.

Emerge ora infatti l’esigenza di declinare procedure e schemi che, nell’uso dei sistemi di AI nelle indagini preliminari, non siano meramente formali e possano restituire informazioni trasparenti, cioè spiegabili dal punto di vista del metodo scientifico e quindi verificabili e confutabili.

Difatti, quantomeno stando ai rilievi mossi da gran parte della comunità scientifica, gli attuali sistemi di AI producono risultati fondati su mere correlazioni statistiche, senza fornire alcuna affidabile spiegazione causale (a mero titolo esemplificativo, si vedano le posizioni del prof. Silvio Ranise dell’Università di Trento e del prof. Corrado Giustozzi della DG Unitelma Sapienza). Tale elemento contribuisce, allo stato, a rendere impossibile la comprensione dei procedimenti seguiti dai sistemi di AI – in particolare quelli basati su machine learning e deep learning – per generare gli output, compromettendo la possibilità di ricostruire e spiegare il “ragionamento” algoritmico.

Il problema della black box

Tale limite è noto come “opacità algoritmica” o “problema della black box” e rende di fatto non pienamente accessibile (e pertanto non controllabile) il funzionamento di un sistema di AI.

Con riferimento ai reati di cui agli artt. 294 c.p. (Attentato contro i diritti politici del cittadino) e 185 TUF (Manipolazione del mercato) l’aggravante comune già prevista nel testo 2024 è stata sostituita dalla previsione di nuove cornici edittali, peggiorative nel minimo e migliorative nel massimo. Rispetto al testo originario, sono state invece eliminate le aggravanti previste per altri reati comuni (art. 494 – Falsa attestazione o dichiarazione a un pubblico ufficiale sulla identità o su qualità personali proprie o di altri; art. 501 – Rialzo e ribasso fraudolento di prezzi sul pubblico mercato o nelle borse di commercio; art. 640 – Truffa; art. 640 ter – Frode informatica; art. 648 bis – Riciclaggio; art. 648 ter – Impiego di denaro, beni o utilità di provenienza illecita; art. 648 ter.1 – Autoriciclaggio).

Pur esistendo studi incentrati sull’explainable AI, che puntano a trasformare la black box in una white box, ovvero a creare sistemi di AI che, per arrivare dall’input all’output, seguano processi interamente spiegabili, si tratta a oggi di un campo di ricerca che non ha ancora proposto soluzioni competitive.

Applicando tali considerazioni al processo penale, è fondamentale ricordare che correlazione non implica causalità e che l’intero impianto di ogni processo penale veramente garantista si fonda sulla possibilità di falsificare, spiegare e controllare ogni elemento avente potenziale rilevanza probatoria. Da ciò deriva la stringente necessità di porre grande attenzione alla compatibilità tra i sistemi di AI attualmente disponibili e le esigenze epistemiche del processo penale, il quale non può tollerare l’introduzione di risultati opachi e non verificabili.

In assenza di una reale interpretabilità dei sistemi algoritmici, le garanzie formali come la notifica ai difensori, la nomina di consulenti tecnici, la partecipazione alla formulazione dei quesiti, o come potrebbe essere, in futuro, l’accesso ai codici sorgente o ai dati di input (etc. etc.), rischiano di rivelarsi meri simulacri procedurali; gli accorgimenti, incapaci di garantire un effettivo controllo sull’operato della macchina, finirebbero piuttosto per fungere da “cavallo di Troia” per l’ingresso nel processo penale di contenuti non falsificabili e, pertanto, opachi.

La necessità di una disciplina adeguata

Le considerazioni sin qui svolte non debbono essere intese quali manifestazione di un retropensiero avverso all’innovazione tecnologica tout court, al contrario: proprio per evitare una frattura insanabile fra i principi del diritto e del processo penale, occorre ribadire la necessità di una disciplina adeguata, capace di governare l’introduzione delle più recenti tecnologie, in modo coerente con i presupposti valoriali, giuridici ed epistemici su cui si fonda il diritto penale liberale.

In questa prospettiva, occorre adottare un approccio precauzionale, che disciplini e limiti rigorosamente l’utilizzo dei sistemi di AI nelle indagini preliminari; ad esempio, uno spazio oggi compatibile con il quadro costituzionale sembra essere quello delineato dal regime delle fonti confidenziali, come disciplinato dagli artt. 203 e 240 c.p.p., il cui utilizzo è rigidamente limitato e soggetto a forti cautele.

Conclusioni

Alla luce di quanto sopra, appare urgente il recupero di un dialogo partecipato che coinvolga tecnici, associazioni, soggetti politici e istituzioni; tale dialogo costituisce il presupposto necessario per raggiungere un assetto normativo che consenta l’implementazione dei sistemi di AI nel nostro ordinamento, basata sui principi costituzionali e sulla consapevolezza dei limiti tecnici (in costante evoluzione) di tali sistemi.

Articoli correlati