La frontiera della giustizia predittiva

Per "giustizia predittiva" deve intendersi la possibilità di prevedere l’esito di un giudizio tramite alcuni calcoli; non si tratta di predire tramite formule magiche, ma di prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi [...]
AI legale
Gavel And Mallet In Front Of Man Shaking Hand With Robot Over The Wooden Desk
  1. Home
  2. Intelligenza Artificiale
  3. La frontiera della giustizia predittiva

Per “giustizia predittiva” deve intendersi la possibilità di prevedere l’esito di un giudizio tramite alcuni calcoli; non si tratta di predire tramite formule magiche, ma di prevedere la probabile sentenza, relativa ad uno specifico caso, attraverso l’ausilio di algoritmi (alcuni preferiscono parlare di prevedibilità). Il diritto può essere costruito come una scienza, che trova la sua principale ragione giustificativa nella misura in cui è garanzia di certezza: il diritto nasce per attribuire certezza alle relazioni umane, tramite una complessa attribuzione di diritti e doveri. Vediamo, in modo analitico, cosa si intende per “giustizia predittiva”.

Il termine “giustizia” non è inteso nel senso teorico o etico o morale, ma nel senso di giustezza del risultato rispetto ai dati inseriti; è una giustizia secondo diritto e non separata da questo; non si cerca nell’animo umano un sentire, ma si impone la razionalità: giustizia è nel senso di “a ciascuno secondo il suo”, relativamente ai dati forniti. Proprio questa è la ragione principale per cui la giustizia predittiva non intende in alcun modo sostituire l’essere umano, ma affiancarlo dotandolo degli strumenti più potenti a oggi conosciuti: le materie c.d. scientifiche.

Il termine “predittiva” non è inteso nel senso di predizione basata sulla magia, ma nel senso di calcolo matematico o statistico volto a centrare il possibile risultato che è il provvedimento finale del giudizio.

Ai giustizia predittiva

Giustificazione della giustizia predittiva

L’art. 65 dell’Ordinamento giudiziario, nell’indicare le attribuzioni della Corte Suprema di Cassazione afferma che questa «assicura l’esatta osservanza e l’uniforme interpretazione della legge, l’unità del diritto oggettivo nazionale, il rispetto dei limiti delle diverse giurisdizioni»; id est: l’organo supremo deputato a interpretare il diritto deve assicurare uniformità e unità del diritto oggettivo nazionale, così confermando che il diritto è oggettivo, ovvero deve essere certo per permetterne il controllo .

Lo stesso giudicante non può discostarsi dalla legge, interpretandola in modo arbitrario, perché violerebbe la legge sull’interpretazione (ex art. 12 preleggi) a cui è pienamente assoggettato ex art. 101 Cost. L’art. 101 Cost. e l’art. 65 ord. giud. esprimono l’impersonale oggettività del diritto e la funzionalità tecnica della sua applicazione, vietando pre-giudizi e pre-comprensioni . Se il diritto è oggettivo, nel senso di avere una base di regole predeterminate e vincolanti, allora deve essere possibile prevederne l’applicazione.

Si badi bene che la questione della giustizia predittiva non è meramente teorica, ma squisitamente pratica; a dimostrazione di ciò si pensi, esemplificativamente, al tema della responsabilità dell’avvocato, dove è dirimente individuare cosa sarebbe accaduto, in termini di decisione giudiziale, laddove l’avvocato avesse posto in essere l’azione processuale in concreto non espletata: in questo caso, è la giustizia predittiva che può venire in soccorso.

Inoltre: una maggiore prevedibilità (rectius: predittività) della sentenza può agevolare sistemi di risoluzione alternative alle controversie (c.d. a.d.r.) come mediazione ex d.lgvo 28/2010 , arbitrato ex art. 806 c.p.c. e ssgg., negoziazione di cui al d.l. 132/2014, proposta conciliativa ex art. 185 bis c.p.c., ecc.: tanto più la sentenza è prevedibile, tanto più le parti saranno indotte a trovare soluzioni alternative che prendano le mosse dalla possibile sentenza come “base per l’accordo o decisione”.

Il caso Loomis negli Usa

È utile menzionare un caso interessante di cui si è occupata la Suprema Corte dello Stato del Wisconsin, negli U.S.A., denominato “Stato contro Loomis”, riguardante la legittimità dell’applicazione di un software/algoritmo denominato Compas (algoritmo proprietario) per la determinazione della recidività di un soggetto che si era macchiato di un determinato crimine ai fini dell’applicazione della pena. Il signor Loomis, nel procedimento penale a suo carico, contestava sia il fatto che sulla base dell’applicazione del software/ algoritmo gli venisse attribuito il valore massimo di recidività, sia il fatto che il giudice di primo grado avesse utilizzato un algoritmo predittivo per addivenire alla condanna, con evidente violazione delle garanzie del giusto processo, in quanto il meccanismo di operatività di Compas,- che si basa sulla raccolta e sulla elaborazione dei dati emersi dal fascicolo processuale e dall’esito di un test a 137 domande a cui viene sottoposto l’imputato, riguardanti l’età, l’attività lavorativa, uso di droghe, opinioni personali, percorso criminale, – non è pubblicamente noto, e dunque la sua validità scientifica non risulterebbe accertabile .

Loomis adduceva dunque diverse motivazioni a sostegno delle violazioni subite: anzitutto, sosteneva che era stato incapace di difendersi rispetto alla conclusione cui era giunto il software proprio perché, non conoscendo l’algoritmo che girava sul software, non si trovava nelle condizioni di poter riconoscere se le informazioni che erano state immesse dallo stesso fossero state trattate con accuratezza o meno; in secondo luogo, sosteneva vi fosse stata una violazione del diritto ad una sentenza personalizzata, in quanto il calcolo dell’algoritmo si basava su un’analisi di un gruppo omogeneo, con evidente spersonalizzazione del proprio diritto rispetto a quel determinato giudizio.

La Corte Suprema del Wisconsin, pronunciandosi sul ricorso proposto da Loomis, dichiarò all’unanimità la legittimità dell’uso giudiziario di algoritmi che misurano il rischio di recidiva. Tra l’altro, è opportuno puntualizzare, anche se l’algoritmo non era conosciuto, le informazioni utilizzate provenivano in ogni caso da un questionario cui deliberatamente e volontariamente si era sottoposto il signor Loomis e divenute, per ciò stesso, dati pubblici.

Inoltre, il punteggio che veniva attribuito dal software non era di tipo determinativo, in quanto rappresentava semplicemente una parte del procedimento che poi avrebbe condotto all’emanazione della sentenza dagli organi a ciò adibiti: il software, era quindi un ausilio all’attività propria degli organi giudicanti; in ultimo, l’utilizzo del genere (maschile) nel punteggio non era discriminatorio, anzi promuoveva, in un certo senso l’accuratezza, perché in grado di meglio clusterizzare quella determinata tipologia di reato.

Da una lettura attenta della sentenza della Corte Suprema, ci si rende conto che l’utilizzo dell’algoritmo Compas in questione è da circoscrivere a ipotesi e a circostanze ben determinate: difatti, non può essere utilizzato né per definire una sentenza né per quantificare la pena esatta da infliggere a un determinato soggetto; l’algoritmo può essere solamente un ausilio, un supporto di cui il giudice si serve e che mai può sostituire lo stesso.

L’intelligenza artificiale nel sistema della giustizia

L’intelligenza artificiale è oggi considerata una materia di frontiera, che potrebbe innestarsi nel sistema della giustizia. Nella sostanza essa è composta da un insieme ampio di algoritmi, capaci di processare tanti dati e produrre un output: qui si preferisce definirla come un algoritmo (complesso) di apprendimento.

WEBINAR
PNRR: Cybersecurity e innovazione digitale (sicura).
Sicurezza
Cybersecurity

Viviamo nell’era del digitale e della interconnessione ad alto impatto relazionale, e, proprio alcuni mesi fa, è stato pubblicato il Libro bianco sull’intelligenza artificiale (I.A.), un progetto coordinato dall’Agenzia per l’Italia digitale.

Senza ombra di dubbio, la direzione che prenderà la ricerca in questo settore impone la risoluzione preliminare di alcuni interrogativi di carattere interdisciplinare (giuridici, etici, morali, filosofici, tecnico informatici) cui non ci si può sottrarre. La comunità scientifica, infatti, già da alcuni anni si occupa delle problematiche inerenti le modalità relative allo studio del procedimento logico-decisionale che “guida” l’intelligenza artificiale verso l’adozione di una determinata “risposta”, la risoluzione di un problema, rispetto a un quesito alla stessa posto.

È inevitabile che il sistema “intelligente”, costruito secondo la logica booleana di 0 e 1 (binaria), sia frutto di uno o più elaborati algoritmi matematici, capaci di analizzare grandi quantitativi di dati da elaborare e rielaborare sino al raggiungimento della risposta più adeguata, o della predizione migliore sull’esito di una disputa, o sul rapporto tra differenti variabili.

Oggi, accanto alla logica booleana si sono affiancati gli studi e le ricerche sulle reti neurali ed esistono modelli matematici capaci di simulare le reti neuronali biologiche umane. Nella ricerca finalizzata all’utilizzo dell’intelligenza artificiale, questi studi vengono inquadrati nell’alveo di quella che viene definita come logica fuzzy, altrimenti nota come logica sfumata o logica sfocata. La logica fuzzy è utilizzata nello studio dell’intelligenza artificiale, per introdurre dei valori di verità intermedi, una sorta di valori valutabili da un computer nell’intervallo tra 0 e 1, con dei punteggi intermedi (ad esempio di 0,4 o 0,6 etc.). In questo modo si raggiunge l’obiettivo di poter avere dalla A.I. delle risposte che non siano necessariamente bianche o nere, vere o false, ma anche parzialmente vere o false o più vicine al valore bianco piuttosto che a quello nero.

Le scelte decisionali della AI, quindi, andranno a orientarsi su variabili comprese in nuovi intervalli di valutazione. Il problema è che spesso le scelte decisionali compiute dal sistema di AI sono correlate ai valori assegnati al software dal programmatore stesso, dal costruttore o eventualmente imposti dallo Stato per esigenze di sicurezza nazionale (si pensi a parametri applicativi in ambito militare).

L’algoritmo sarà condizionato a monte, proprio nella fase più delicata e la sua previsione potrebbe essere viziata (nel bene e nel male) da un preconcetto o pregiudizio, anche inconscio inconsapevole del programmatore, o peggio, da volute esigenze del costruttore e del finanziatore. La programmazione di questi valori e di questi intervalli, quindi, è inevitabile che “orienti” il comportamento decisionale della AI verso la soluzione da prendere, caso per caso. Sembra inconfutabile il fatto che il processo di scelta, nella fase della introduzione delle variabili e delle informazioni da parte del programmatore, possa subire un condizionamento, indiretto, inconsapevole e occulto.

 

Il giudice robot non è ammissibile

Si parla sempre più spesso di giudice robot , inteso come sostitutivo del giudice umano, al fine di rendere l’applicazione del diritto certa e prevedibile. Il problema si pone non per le questioni di settore, formali e procedurali dove appare legittimo, ma per quelle più complesse che implicano problemi interpretativi.

Ebbene, si ritiene che questo non sia – attualmente – ammissibile nel nostro ordinamento (fermo restando un problema di c.d. umanità) almeno per le seguenti ragioni:

– gli artt. 25 (Giudice naturale precostituito per legge) e 111 (Giusto processo) della Costituzione postulano un giudice umano; ciò soprattutto per origine storica e per la riflessione che la Carta è stata costruita come un equilibrio tra valori e non come “fattispecie”, con la conseguenza favorire la soggettività all’oggettività e, dunque, l’essere umano ad “altro”;

– l’art. 51 c.p.c. (astensione del giudice) postula, in modo non equivoco e forse più di altri, la natura umana del “giudicante”;

– se si osserva il processo nel suo complesso, può desumersi un principio di “simmetria” tra giudice e parti, nel senso che queste devono avere la medesima natura (umana, verrebbe da dire), differenziandosi solo per ruolo e/o potere. La tecnologia predicabile, al più, va vista in modo integrativo e non sostitutivo dell’attività del giurista.

A tutto concedere, si potrebbe ipotizzare un sistema che predichi le decisioni delle Corti, ma poi siano le parti a decidere se attivare la propria pretesa dinanzi al giudicante oppure accettare la decisione robotica.

Modelli di giustizia predittiva

Sostanzialmente sono presenti due grandi modelli di giustizia predittiva:

induttivo, che utilizza i precedenti giurisprudenziali, per proiettarli nel futuro e prevedere quale potrebbe essere la sentenza; è ampiamente diffuso;

deduttivo, che utilizza principalmente le regole sull’interpretazione ex art. 12 preleggi per predire quale potrebbe essere la sentenza; è poco diffuso.

Il tema della giustizia predittiva viene oggi sviluppato, in misura prevalente, seguendo un’impostazione statistica-giurisprudenziale: si verificano i precedenti giurisprudenziali e in base a questi si prevedono le decisioni future.

Esemplificativamente: se dieci sentenze su cento precedenti dicono che nel caso x si applica y, allora ci sarà il 10% di possibilità che in futuro il giudice a parità di fatto x si orienterà su y.

In questa direzione militano alcuni progetti dei Tribunali italiani (Corte di appello di Bari, di Venezia, di Brescia), oltre a realtà che vanno consolidandosi in altri Paesi (Francia, in primis); tra i più noti progetti non italiani, vi è – appunto – Predictive. Predictive – società specializzata in legal tech – ha messo a disposizione uno strumento di carattere informatico che, avvalendosi di algoritmi di calcolo, permette di prevedere la probabilità di orientamento decisionale del giudice. La base dati sulla quale l’algoritmo viene applicato è costituita dalle decisioni delle Corti di appello e dalle decisioni della Cassazione

Il modello deduttivo, invece, vuole rendere più prevedibile l’esito del giudizio, tramite il rigoroso rispetto delle regole sull’interpretazione della legge ex art. 12 preleggi; si basa sui seguenti rilievi:

– in Italia vige un sistema di civil law e non common law; il primo impone l’applicazione della legge e non della giurisprudenza;

– se si considerasse il precedente, ai fini della possibile decisione giurisprudenziale futura, allora si finirebbe per sovrapporre il potere giudiziario su quello legislativo, diversamente dal principio di separazione dei poteri imposto dalla Costituzione;

– la sentenza ha effetto solo nei limiti del giudicato, ex art. 2909 c.c., che sia esso esplicito, implicito formale o sostanziale, ma non può estendersi fino a comprendere casi diversi; è solo la legge che opera erga omnes e non la giurisprudenza:

– ogni giudice non è vincolato al precedente, ma solo alla legge, in virtù della sua indipendenza e autonomia, in uno con il precetto dell’art. 101 Cost.

Conclusioni

Probabilmente la soluzione preferibile, per rendere il diritto più prevedibile, è quella di utilizzare entrambi i modelli: dove il deduttivo non arriva per genericità della lettera della legge oppure per la presenza di clausole valoriali (buona fede, equità, ecc.), allora può subentrare l’induttivo.

 

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy

 

FacebookTwitterLinkedIn