AI e giustizia predittiva: il rischio del giudice robot

Grazie ai sistemi basati su machine learning, oggi si può prevedere l’esito di una sentenza. È quanto emerge dal recente studio di Medvedeva sulla capacità predittiva di sistemi di intelligenza artificiale [...]
Francesca Michetti

PHD in Business and Behavioral Scienc; Master Degree in Law

giustizia predittiva AI
  1. Home
  2. Intelligenza Artificiale
  3. AI e giustizia predittiva: il rischio del giudice robot

È possibile prevedere l’esito di un giudizio? Con l’intelligenza artificiale oggi si può. E non solo. L’identità dei giudici si rivela un utile “predittore“. È quanto emerge dal recente studio di Medvedeva (et al., 2020)[1] sulla capacità predittiva di sistemi di intelligenza artificiale basati su machine learning. Attenzione, però, perché accanto ai potenziali benefici nella gestione del sistema giudiziario in termini di economia processuale, l’uso dell’intelligenza artificiale in funzione predittiva solleva altresì non poche perplessità di natura etica e giuridica. Negli ultimi tempi, si è sviluppato un intenso dibattito circa le potenzialità e i limiti all’impiego di strumenti di intelligenza artificiale in ambito legale. In particolare, al centro della querelle c’è il tema della giustizia predittiva, cioè della possibilità di prevedere l’esito di un giudizio tramite l’ausilio di sistemi di calcolo e algoritmi.

Giustizia predittiva: la ricerca scientifica

«Habent sua sidera lites» dicevano gli antichi, per evidenziare l’imprevedibilità dello “ius dicere“. In tal senso, appare quasi profetico lo studio di Lawlor[2] che, nel lontano 1963, ipotizzava che i computer un giorno sarebbero diventati capaci di analizzare e prevedere i risultati delle decisioni giudiziarie. Più di cinquant’anni dopo, i progressi nel Natural Language Processing (NLP) e nel Machine Learning (ML) ci forniscono gli strumenti per analizzare automaticamente il materiale giuridico e prevedere ex ante gli esiti delle decisioni giudiziarie relative a questioni determinabili in senso alternativo (ad esempio, sussistenza o meno della violazione di una norma).

In un recente studio sistematico sulla previsione dell’esito dei casi giudicati dalla Corte europea dei diritti dell’uomo, un gruppo di computer scientists dell’Università di Londra (Aletras et al., 2016) [3] ha elaborato un modello predittivo in grado di prevedere le decisioni della Corte sull’eventuale violazione di un articolo della Convenzione europea dei diritti dell’uomo (CEDU) – attraverso l’estrazione delle informazioni testuali disponibili – con un’elevata accuratezza (il 79% in media). Nello studio in questione, la programmazione predittiva si fonda su una classificazione binaria, in cui l’input dei classificatori è rappresentato dal contenuto testuale, estratto da un caso, mentre l’output di destinazione è rappresentato dal giudizio effettivo sull’eventuale violazione della CEDU.

Coerentemente con la teoria del realismo giuridico (Baum, 2009[4]; Leiter, 2007[5]; Llewellyn, 1996[6]; Miles & Sunstein, 2008[7]; Schauer, 1998[8]), secondo la quale i giudici rispondono principalmente a ragioni non giuridiche (ai fatti), piuttosto che alle argomentazioni giuridiche, l’analisi empirica condotta dai ricercatori inglesi conferma che il processo decisionale della Corte di Strasburgo è significativamente influenzato dal caso concreto. Il che però, precisano gli scienziati, potrebbe essere dovuto al cosiddetto “effetto di selezione” (Priest & Klein, 1984)[9] tipico dei casi giudicati dalla Corte europea dei diritti dell’uomo in quanto tribunale internazionale, dato che – ricordiamo – i casi sono già stati giudicati a livello nazionale.

Più recentemente, Medvedeva (et al., 2020)[10] hanno condotto tre esperimenti finalizzati, rispettivamente, a indagare la possibilità di utilizzare parole e frasi nel testo dei casi per prevedere le decisioni giudiziarie (esperimento 1); stimare il potenziale di predizione dei casi futuri (esperimento 2); ed effettuare tale stima solo sulla base di informazioni oggettive, come i cognomi dei giudici coinvolti (esperimento 3).

Rispetto ai risultati raggiunti da Aletras (et al., 2016), la nuova analisi ha aumentato il numero di articoli nonché il numero di cause, per ciascun articolo della Convenzione, inserite nel database (1942 vs 584); ed ha selezionato, altresì, come elementi di training, “parti” delle sentenze diverse da quelle scelte da Aletras, eliminando le argomentazioni giuridiche della Corte al fine di ridurre il rischio di bias.

In primis, l’analisi è rivolta a verificare il potenziale dell’analisi linguistica e automatica per l’estrazione di informazioni dalle decisioni giudiziarie, evidenziando la ricorrenza di alcune parole o sequenze di parole (n-gramma) nei giudizi di violazione/non violazione degli articoli della CEDU. Il che consente di individuare quali informazioni hanno avuto il maggior impatto sulla decisione del modello di prevedere una certa sentenza. Con un’accuratezza media del 75% nel prevedere la violazione di 9 articoli della Convenzione europea dei diritti dell’uomo, lo studio in questione evidenzia il potenziale significativo degli approcci di apprendimento automatico nell’ambito giuridico.

In secondo luogo, lo studio ambisce a valutare il potenziale di previsione dei casi futuri, dividendo i casi sulla base dell’anno in cui sono stati decisi. Un tale approccio presenta due vantaggi: oltre a restituire una visione più realistica – dato che non c’è alcuna utilità pratica nel prevedere l’esito di un caso per il quale l’esito effettivo è già noto – tiene conto anche del fatto che con il passare del tempo, il diritto evolve. I risultati mostrano che prevedere le sentenze per i casi futuri è possibile, sia pur con un’accuratezza più bassa (che, in media, varia dal 58 al 68%). Vale a dire che la previsione dei giudizi futuri diventa più difficile man mano che aumenta il divario tra il periodo in base al quale il modello è stato addestrato e quello di test. Quindi, laddove è possibile prevedere le decisioni dell’anno passato relativamente bene, la prestazione del modello diminuisce nel caso di un più ampio divario temporale (ad esempio, 10 anni).

WHITEPAPER
Roadmap verso la Smart Logistic - Le 4 tecnologie per migliorare efficienza e sicurezza
Intelligenza Artificiale
IoT

Infine, l’analisi predittiva condotta da Medvedeva e colleghi (2020)[11] ha introdotto una importante novità: l’identità dei giudici (rectius il cognome) è un utile “predittore”. Se il database di training, infatti, contiene anche il cognome dei giudici che hanno preso parte alla decisione finale, l’accuratezza dei risultati predittivi è in media del 65%.

Attenzione, però, perché i ricercatori non hanno considerato il voto dei singoli giudici in ogni caso trattato, ma solo la decisione finale del collegio. Di conseguenza, come si legge nelle conclusioni, «è importante notare che, mentre alcuni giudici possono essere fortemente associati a casi che sono stati giudicati essere violazioni (o non violazioni), ciò non significa che si pronuncino sempre a favore di una violazione quando si tratta di un particolare articolo della CEDU. Significa semplicemente che questo giudice è più spesso in una Camera che ha votato per una violazione, a prescindere dall’opinione del giudice».

giustizia predittiva AI

Applicazioni della giustizia predittiva

Dalla ricerca accademica all’applicazione giudiziaria il salto è breve. In Francia è on line la piattaforma a Predictice che “predice” gli esiti giudiziari nonché gli strumenti per l’ottimizzazione della strategia processuale degli avvocati. In un click, l’algoritmo calcola le probabilità della definizione di una causa, l’ammontare dei risarcimenti ottenuti in contenziosi simili e identifica gli argomenti su cui vale la pena di insistere.

In Italia, l’utilizzo di algoritmi predittivi è al centro di un progetto dell’Università Ca’ Foscari di Venezia, primo ateneo italiano a esplorare il tema della giurisprudenza predittiva. Il progetto ha visto in primis la raccolta, la catalogazione e la digitalizzazione di centinaia di sentenze della Corte d’appello e di tutti i tribunali del Veneto emesse tra il 2018 e il 2019. Poi, grazie alla collaborazione con il dipartimento di intelligenza artificiale di Deloitte, è stato creato un software che, tramite l’impiego di alcune parole chiave, elabora la giurisprudenza raccolta e fornisce una previsione sull’ipotetico esito del giudizio. «Il progetto – afferma Adalberto Perulli, direttore del Centro studi giuridici della Ca’ Foscari – realizza un cambiamento radicale nell’approccio alla giurisprudenza. Grazie ad un impiego accorto dell’intelligenza artificiale, gli orientamenti dei giudici in una determinata materia (ad esempio il licenziamento per giusta causa) forniscono al sistema informatico la base per realizzare una previsione ex ante degli esiti di una controversia. Il progetto ha quindi importanti riflessi pratici, ma anche teorici e metodologici»[12].

Pro e contro della giustizia predittiva

Il panorama attuale apre la strada a una profonda riflessione sul ruolo dell’intelligenza artificiale applicata al processo. Quali i pro e i contro di una giustizia high-tech?

In primis, l’ausilio di strumenti predittivi può ridurre notevolmente la (ir)ragionevole durata del processo, con un risvolto positivo sull’economia processuale dell’intero sistema giudiziario. Conoscere la durata media dei procedimenti nonché gli orientamenti giurisprudenziali in materia può contribuire al contenimento della domanda, disincentivando le cause che avrebbero scarsa possibilità di successo[13].

Inoltre, una maggiore prevedibilità (rectius: predittività) della sentenza consente di orientare in via preventiva i comportamenti dei singoli, favorendo il ricorso a sistemi di risoluzione alternative delle controversie come mediazione, arbitrato, negoziazione, proposta conciliativa ecc[14]. In quest’ ottica, i sistemi di AI si rivelano senza dubbio un utile strumento di supporto all’attività del giudice, in grado di garantire il rispetto del principio del giusto processo e della certezza del diritto.

Di contro, però, c’è il timore diffuso che un algoritmo possa sostituire il giudice – il cosiddetto giudice robot – o l’attività dell’interprete. Da ‘Homo Juridicus’ a ‘Homobot[15] il passo è breve. In proposito, la Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi chiarisce come l’uso dell’intelligenza artificiale sia ammesso «under user control». Ciò, al fine di evitare il rischio di un eccessivo automatismo delle decisioni. È uno dei cinque principi fondamentali sanciti nella Carta – ai quali dovranno attenersi i soggetti pubblici e privati nella progettazione e nell’applicazione degli strumenti e servizi di intelligenza artificiale applicati alla Giustizia – che mira a «precludere un approccio deterministico» e ad «assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle loro scelte».

Pertanto, gli strumenti di intelligenza artificiale dovranno essere impiegati a supporto – e non a sostituzione – dell’attività degli operatori della giustizia.

Conclusioni

Il tema della giustizia predittiva richiede senza dubbio ulteriori ricerche e impone altresì una profonda riflessione sia con riguardo alle questioni etico-normative che in relazione agli aspetti tecnico-implementativi.

Abbiamo bisogno dell’AI per affrontare livelli crescenti di complessità e difficoltà. Con un’analogia, dobbiamo ricordare che il miglior giocatore di scacchi non è né un umano né un computer, ma un umano che usa un computer” (Floridi, 2017)[16].

 

 

  1. Medvedeva M., Vols M., Wieling M. (2020). Using machine learning to predict decisions of the European Court of Human Rights, Artificial Intelligence and Law, 28:237–266.
  2. Lawlor RC (1963). What computers can do: Analysis and prediction of judicial decisions, American bar Association Journal, Vol. 49, No. 4, pp. 337-344.
  3. Aletras N, Tsarapatsanis D, Preoţiuc-Pietro D, Lampos V (2016) Predicting judicial decisions of the European Court of Human Rights: a natural language processing perspective. PeerJ Comput Sci 2: e93.
  4. Baum L. (2009). The puzzle of judicial behavior.  University of Michigan Press.
  5. Leiter B. (2007). Naturalizing Jurisprudence: essays on American legal realism and naturalism in legal philosophy. Oxford: Oxford University Press.
  6. Llewellyn KN. (1996). The common law tradition: deciding appeals. William S. Hein & Co., Inc.
  7. Miles TJ, Sunstein CR. (2008). The new legal realism. The University of Chicago Law Review 75(2):831-851.
  8. Schauer F. (1998). Prediction and particularity. Boston University Law Review 78:773.
  9. Priest GL, Klein B. (1984). The selection of dispute for litigation. The Journal of Legal Studies 13(1):1-55.
  10. Medvedeva M., Vols M., Wieling M. (2020). Using machine learning to predict decisions of the European Court of Human Rights, Artificial Intelligence and Law, 28:237–266.
  11. Medvedeva M., Vols M., Wieling M. (2020). Using machine learning to predict decisions of the European Court of Human Rights, Artificial Intelligence and Law, 28:237–266.
  12. Ferrarin F. (2021). Prevedere l’esito di un giudizio: ecco la giurisprudenza predittiva. Available at https://www.unive.it/pag/14024/?tx_news_pi1%5Bnews%5D=9884&cHash=2d30d787f83ed5c005434c077b6d25bd
  13. Castelli C., Piana D. (2018). Giustizia predittiva. La qualità della giustizia in due tempi. Questione Giustizia. Available at https://www.questionegiustizia.it/rivista/articolo/giustizia-predittiva-la-qualita-della-giustizia-in-due-tempi_589.php
  14. Viola L. Giustizia predittiva: è preferibile un modello deduttivo. Altalex. Available at https://www.altalex.com/documents/news/2020/03/10/giustizia-predittiva-preferibile-modello-deduttivo
  15. Rumiati R., Convegno di studi ” Certezza del diritto, prevedibilità della decisione e giustizia predittiva. Verso una nuova calcolabilità del futuro giuridico?”, Università degli studi di Padova.
  16. Floridi, L. (2017). Robots, Jobs, Taxes, and Responsibilities, Philosophy and Technology 30 (3).
WEBINAR
[WEBINAR 28 maggio] AI e cloud networking: come mettere in sicurezza l'azienda diffusa
Cloud
Intelligenza Artificiale

 

FacebookTwitterLinkedIn