Giuristi e intelligenza artificiale, molti vantaggi e molte responsabilità

I sistemi basati su AI possono essere di aiuto a giudici, avvocati e giuristi. Ma occorrono regole precise e inderogabili. Il Consiglio degli Ordini Forensi Europei (CCBE) ha pubblicato un documento che riporta riflessioni dal punto di vista della deontologia, della responsabilità e della formazione professionale. Per gli avvocati vige l’obbligo di fare un uso consapevole e responsabile delle nuove tecnologie nella loro attività, garantendo il rispetto degli obblighi professionali e proteggendo il rapporto di fiducia con il cliente

Pubblicato il 09 Feb 2021

Ilaria Curti

Studio Portolano Cavallo

Yan Pecoraro

Studio Portolano Cavallo

Giudici robot, giustizia predittiva, avvocati sempre più avanzati tecnologicamente. Quali sono le applicazioni concrete dei sistemi di intelligenza artificiale nel settore legale e quali le responsabilità per chi se ne avvale?

Alcune applicazioni dell’AI nel settore legale

Risale al 2019 l’avvio in Estonia di un progetto pilota per realizzare un sistema di intelligenza artificiale in grado di analizzare e decidere controversie del valore massimo di 7.000 euro. Un processo virtuale in cui, un po’ come sperimentato nel corso della pandemia, le parti depositano su una piattaforma dedicata le rispettive memorie, difese e richieste. Il giudice robot esamina la documentazione e la normativa applicabile al caso concreto formando il suo giudizio e pronunciandosi sul risarcimento del danno sulla base di precedenti decisi da giudici umani e già digeriti dalla macchina.

La Cina, ancor prima dell’Estonia, ha sviluppato processi cibernetici dedicati a risolvere questioni relative all’e-commerce, transazioni online e violazione del copyright. Si tratta di vere e proprie udienze in cui avvocati si confrontano con magistrati robot gestendo le incombenze processuali attraverso la blockchain.

Accade anche, ad esempio negli Stati Uniti, che il giudice umano faccia ricorso all’intelligenza artificiale per valutare tramite un algoritmo denominato Compas la probabilità di recidiva di un imputato al fine di decidere in merito al rilascio su cauzione o all’ammontare della pena. L’analisi dell’algoritmo si basa sul risultato di un questionario di 137 domande con risposta vincolata poste all’imputato oltre che sui dati relativi al suo trascorso criminale e alle sue condizioni socioeconomiche e personali.

Sempre in tema di previsioni è conosciuto l’algoritmo sviluppato alcuni anni fa dalla University College of London (UCL) in grado prevedere con un margine di successo fino al 79%, le decisioni della Corte europea dei diritti dell’uomo. Anche in questo caso l’algoritmo viene educato attraverso la casistica giurisprudenziale, limitata ai soli articoli 3, 6 e 8 della Convenzione europea dei diritti dell’uomo, e proposta alla macchina in versione semplificata con indicazioni dei fatti, dell’applicazione della Convenzione e del dispositivo (violazione o non violazione).

Ma è nel mondo degli studi legali che l’intelligenza artificiale ha fatto il suo ingresso in maniera più incisiva, aiutando i professionisti ad organizzare e velocizzare l’analisi di grandi volumi di documenti nel contesto di contenziosi e arbitrati, efficientare le fasi di due diligence, creare bozze contrattuali, accelerare le indagini interne.

AI legale

Sinergie tra avvocati e AI nel processo di e-discovery

Una delle aree che ultimamente si presta particolarmente alle sinergie tra uomo e macchina è quella del contenzioso, anche arbitrale, e delle indagini interne. Si tratta di ambiti, infatti, in cui tradizionalmente il professionista deve misurarsi con un numero significativo di documenti da analizzare, soprattutto nel caso delle indagini interne, in tempi brevi.

Ciò che fa la differenza, in una indagine interna, è la rapidità con cui vengono individuate le evidenze principali del fatto oggetto di approfondimento.

Le aziende normalmente avviano indagini interne in risposta a indagini delle autorità e, in questo contesto, capire quanto prima la fondatezza o meno delle accuse è determinante per orientare non solo le strategie difensive e di crisis management ma anche quelle manageriali con riferimento, ad esempio, all’adozione di azioni di rimedio o alla necessità di prevedere appostamenti in bilancio per eventuali sanzioni.

Anche nel contesto di indagini interne proattive, ovvero condotte prima e a prescindere da contestazioni da parte delle autorità, come nel caso di segnalazioni di sospette violazioni da parte di manager o dipendenti attraverso canali di whistleblowing, la velocità con cui si verificano i fatti diventa cruciale anche per interrompere eventuali azioni illecite.

La tipica sfida che in questi casi gli avvocati sono chiamati ad affrontare consiste nell’esaminare, valutare e mettere in relazione migliaia di email e documenti in tempi brevissimi, per confermare o negare l’esistenza di indizi o prove della commissione dei fatti oggetto di indagine, individuare le persone coinvolte e raccogliere e preservare le fonti di prova.

L’analisi di email e documenti avviene su piattaforme digitali in grado di aiutare l’organizzazione del lavoro del team di investigation e la revisione dei file ma da alcuni anni esistono soluzioni che applicano l’AI per affiancare gli avvocati nel processo di indagine.

AI legale

Lo studio legale di cui chi scrive fa parte, è oggi il primo in Italia a impiegare Luminance Discovery, una piattaforma di intelligenza artificiale in grado di supportare i propri professionisti nelle aree del contenzioso e delle indagini interne

Attraverso il deep coding la macchina interagisce con gli avvocati, impara in maniera attiva dalle decisioni che il team di lavoro prende nel classificare i documenti come rilevanti o irrilevanti ai fini dell’indagine. In questo modo la piattaforma viene allenata costantemente nel corso del processo di analisi documentale effettuato dai professionisti e progressivamente sviluppa una sua capacità di comprensione fino ad arrivare, in brevissimo tempo, ad orientare il lavoro dei legali sottoponendo loro in prima battuta i documenti che risultano essere quelli di maggiore rilevanza, lasciando, invece, in coda quelli che probabilmente verranno classificati come inconferenti o non rilevanti.

Luminance si avvale delle più recenti soluzioni di apprendimento automatico e tecnologie di riconoscimento di pattern sviluppati all’Università di Cambridge. In particolare, unisce diverse discipline tipiche del machine learning, tra cui il deep learning, l’inferenza e NPL combinando apprendimento automatico supervisionato e non supervisionato.

In questo modo la capacità di analisi della macchina e quella dell’uomo si fondono e si arricchiscono reciprocamente sviluppando un vero e proprio super potere a disposizione degli avvocati.

Quali sono le responsabilità dell’utilizzo dell’AI nel settore legale?

Non c’è super potere, però, che non sia accompagnato da responsabilità e allora se l’intelligenza artificiale è in grado di potenziare le capacità degli operatori del diritto quali sono le regole per gestirla?

Il Consiglio degli Ordini Forensi Europei (CCBE) il 6 marzo 2020 ha pubblicato un documento intitolato “CCBE Considerations on the Legal Aspects of Artificial Intelligence” che riporta le riflessioni dell’organismo sull’utilizzo dell’AI in campo legale anche dal punto di vista della deontologia, della responsabilità e della formazione professionale.

Il CCBE avverte in primo luogo che gli avvocati debbano fare un uso consapevole e responsabile delle nuove tecnologie nella loro attività, garantendo sempre il rispetto degli obblighi professionali e proteggendo il rapporto di fiducia con il cliente.

L’avvocato tecnologico che si avvale di sistemi di AI per risolvere una questione legale ha prima di tutto l’obbligo di competenza, ovvero l’obbligo di sviluppare conoscenze e capacità che lo pongano nelle condizioni non solo di interagire con la macchina ma soprattutto di governarla. Una volta preparato, ha il dovere di informare il cliente dell’utilizzo della tecnologia e di preservare il segreto professionale e proteggere la riservatezza dei dati dei clienti.

Quanto, invece, all’impiego dell’AI in procedimenti giudiziari, il CCBE ha chiarito che per salvaguardare il giusto processo e i diritti delle parti coinvolte debbano essere rispettate alcune minime condizioni, oltre alla verificabilità dei requisiti di neutralità e indipendenza del sistema e alla sua conformità con il GDPR.

Innanzitutto, il potere decisionale del giudice non dovrebbe essere delegato alla macchina. La posizione, in contrasto con la scelta di Cina ed Estonia di istituire cyber tribunali, sembra essere più coerente con le riflessioni che si rintracciano nella sentenza della Corte Suprema del Wisconsin nel caso State v. Loomis. La Corte, con riferimento all’uso di Compas, ha precisato che la valutazione dell’AI è solo uno dei molti fattori che possono essere considerati e ponderati nella decisione del caso concreto. Il robot, quindi, non sostituirebbe il giudice umano ma lo affiancherebbe nel processo decisionale.

Infine, per garantire la parità delle armi in giudizio ed evitare pericolose sopraffazioni, il CCBE raccomanda che sia prevista la possibilità per le parti del giudizio di:

  • identificare se nella trattazione della controversia sia stata o meno utilizzata l’AI;
  • verificare quali dati siano stati inseriti nel software utilizzato e il suo processo decisionale;
  • discutere e contestare i risultati dell’AI.

Conclusioni

L’impiego dell’AI nel settore legale è una realtà oggi variegata, discussa e tutta da scoprire. Le potenzialità che ci offre in termini di risultati, efficienza e qualità del lavoro sono certamente notevoli, a patto che venga gestita con responsabilità e umanità, e forse ancora non del tutto rivelate.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3