Intelligenza artificiale: le applicazioni in Italia e i problemi del diritto da risolvere

Sembra che i tempi siano maturi per l’adozione di un vero e proprio “Statuto dell’intelligenza artificiale”, che dovrebbe tradursi in una “fase di codificazione o costituzionalizzazione di un set minimo di “proiezioni moderne” di diritti fondamentali” [...]
Massimiliano Nicotra

Qubit Law Firm

Daria Alessi

Qubit Law Firm

Salvatore Buscema

Qubit Law Firm

Davide Marchese

Qubit Law Firm

intelligenza artificiale diritti
  1. Home
  2. Intelligenza Artificiale
  3. Intelligenza artificiale: le applicazioni in Italia e i problemi del diritto da risolvere

Secondo Massimo Chiriatti l’algoritmo rappresenta la prima specie della teoria creazionista; creato da un’idea viene rappresentato come il futuro dell’uomo: “Un’evoluzione che si integra nella nostra vita fino a modellare l’ambiente e influenzare il nostro comportamento”. Tuttavia, ad oggi, almeno nel nostro Paese si trova ancora in una fase “adolescenziale”. Leggendo l’ultimo rapporto Automating Society 2020 nella sezione riguardante l’Italia la nostra società viene definita in stasi, come se non avesse ancora preso coscienza degli algoritmi che lentamente si stanno sviluppando ed espandendo intorno e dentro di essa. Tale affermazione è basata su un semplice dato di fatto, ossia la mancanza di misure effettive di regolamentazione dei sistemi che adottano decisioni automatizzate (ADM – automated decision making). Tuttavia, in base al rapporto, la lacuna non ha impedito la realizzazione e utilizzo dei suddetti sistemi (sia l’applicazione pratica di alcuni sistemi di intelligenza artificiale sia l’introduzione di algoritmi per decisioni automatizzate) nel nostro Paese; infatti, già nel 2019 in Italia potevamo contare vari casi di utilizzo. Vediamoli per capire qual è il rapporto fra intelligenza artificiale e diritti.

Casi di utilizzo dell’AI in Italia: la “buona scuola”

Il primo esempio citato nel report sopracitato è quello relativo al caso della c.d. “buona scuola”, con cui sono state assegnate le sedi professionali a migliaia di docenti della scuola tramite l’utilizzo di una procedura automatizzata basata su diverse variabili inserite nel software. Molti insegnanti, però, hanno contestato la procedura e avviato delle azioni giudiziali di impugnazione.

Con due sentenze gemelle pubblicate il 13 dicembre 2019 (la n. 2936/2019 e la n. 8474/2019) il Consiglio di Stato si è pronunciato sul tema dell’utilizzo di software automatizzati per l’adozione di decisioni di rilievo amministrativo, confermando l’impostazione già assunta nella precedente sentenza 2270/2019, ma stavolta ampliando l’excursus argomentativo e scrivendo quello che potremmo definire il vademecum per l’adozione delle decisioni algoritmiche nella pubblica amministrazione.

Ciò è stato già stato esaminato in un articolo in cui si approfondivano le questioni sociali e giuridiche che avevano fatto emergere le due sentenze di Palazzo Spada.

In particolare, riprendendo i principi generali che regolano l’agire della pubblica amministrazione di cui all’art. 97 della nostra Costituzione ed esaminando la procedura adottata per l’assegnazione automatica dell’assegnazione delle cattedre al filtro della l. n. 241/1990 che regola il procedimento amministrativo, i giudici sono arrivati a definire l’algoritmo alla stregua di un atto amministrativo informatico, chiarendo che devono essere in ogni caso rispettate le garanzie fornite ai cittadini derivanti, tra l’altro, dal principio di trasparenza, partecipazione ed obbligo di motivazione.

Particolare che i giudici del Consiglio di Stato, indirettamente, riprendano molti dei principi indicati negli Orientamenti etici per una AI affidabile predisposto dal gruppo di lavoro di alti esperti istituito dalla Commissione Europea, oltre a richiamare l’art. 22 del Regolamento (UE) n. 679/2016 (“GDPR”) che disciplina, appunto, i diritti degli interessati in caso di trattamento dei loro dati personali al fine dell’adozione di decisioni automatizzate che incidano sulla loro persona o producano effetti giuridici nei loro confronti.

 

intelligenza artificiale diritto

Casi di utilizzo dell’AI in Italia: riconoscimento facciale negli aeroporti

Altro esempio di applicazione è rappresentato dall’esperimento del riconoscimento facciale all’interno degli aeroporti. L’idea alla base dell’adozione della tecnologia è quella di consentire ai viaggiatori di vivere un viaggio senza attriti sostituendo l’identificazione e le carte d’imbarco con il volto del viaggiatore.

Il rapporto evidenzia che il 12 febbraio 2020 è iniziata una fase pilota di implementazione della tecnologia di riconoscimento facciale all’aeroporto di Linate e che durerà fino alla fine dell’anno. Allo stesso tempo, entro la fine del 2020, inizierà una sperimentazione di riconoscimento facciale anche per l’aeroporto di Malpensa.

A Roma Fiumicino, invece, il processo iniziò a novembre 2019 e ha coinvolto una sola azienda, KLM. Tuttavia, i gestori aeroportuali affermano che presto si espanderà e che alla fine si applicherà a tutti i voli ed a tutte le destinazioni in entrata e in uscita dall’aeroporto internazionale.

candidati entro il 20/5
Tornano i Digital360 Awards! Partecipa al contest: oltre 160 CIO valuteranno il tuo progetto

L’utilizzo dell’intelligenza artificiale per tali finalità presenta però molti dubbi dal punto di vista della tutela dei diritti, in quanto consente l’accumulo di dati biometrici e il tracciamento dei movimenti delle persone, che può trasformarsi in sorveglianza generalizzata.

Tutto ciò ha portato l’Hermes Center a lanciare la campagna #Reclameyourface, in opposizione all’uso intensivo di dispostivi video-intelligenti che raccolgono le informazioni di tutte quelle persone che entrano nel loro raggio di azione. La campagna punta ad avviare un dibattito pubblico nel quale si evidenzino i rischi, individuali e collettivi, a cui i cittadini sono esposti visti gli attuali impieghi del riconoscimento facciale considerato (doveroso ripeterlo) l’uso spropositato della videosorveglianza.

Di conseguenza, l’Unione Europea ha chiesto ai Paesi di rifiutare l’uso della sorveglianza biometrica che potrebbe avere un impatto sui diritti e le libertà negli spazi pubblici. Per questo motivo dal 12 novembre si è aperta una petizione online.

Da un punto di vista strettamente giuridico i problemi legati alla videosorveglianza tramite sistemi biometrici di riconoscimento con algoritmi di intelligenza artificiale sono stati evidenziati nelle Linee Guida 3/2019 sul trattamento dei dati personali attraverso dispositivi video emanate dal Comitato Europeo per la Protezione dei Dati, il quale ha previsto degli obblighi aggiuntivi (minimizzazione dei dati trattati, cancellazione dei dati grezzi, garanzia di integrità, disponibilità e riservatezza dei dati trattati) per i titolari del trattamento che vogliano utilizzare detti sistemi.

intelligenza artificiale diritto

Applicazione dell’intelligenza artificiale nella giustizia penale

Sotto il profilo delle applicazioni di intelligenza artificiale nel campo del diritto e della gestione della giustizia penale, il rapporto evidenzia ulteriori perplessità e pericoli.

Già negli Stati Uniti vi è stato un ampio dibattito sull’utilizzo di algoritmi predittivi al fine della valutazione della pericolosità sociale di un soggetto, per calcolare rischi di recidiva e, quindi, l’applicazione di misure restrittive. Il caso del software Compas, esposto anche nel libro “Processi al futuro” di Guido Scorza, è approdato nel 2016 alla Corte Suprema del Wisconsin, che però ha ritenuto corretto il risk assessment generato dal sistema sulla considerazione che il giudice rimane comunque libero di esercitare il proprio potere discrezionale in concreto.

Nel nostro paese già da tempo si parla di “giustizia predittiva”, ovvero di quei processi decisionali automatizzati all’interno del sistema giudiziario. Per fare un esempio pratico, un gruppo di ricercatori della Scuola Superiore Sant’Anna hanno dichiarato che tramite tecniche di “machine learning” si possono analizzare sentenze per poi consentire di estrarre informazioni significative per ulteriori rielaborazioni, a partire dall’identificazione di tendenze comuni nella giurisprudenza.

Oltre a queste applicazioni, sono anche comparse soluzioni (già distribuite, testate e implementate) come KeyCrime o XLAW, software già operativi nelle città di Milano, Napoli, Modena, Prato, Salerno, Livorno, Trieste, Trento e Venezia.

Sul punto l’unica disposizione di diritto positivo ad oggi applicabile è l’art. 8 del decreto legislativo n. 51/2018 di attuazione della direttiva (UE) n. 2016/680 (pubblicata in GUCE contemporaneamente al GDPR e che disciplina la protezione delle persone fisiche con riguardo ai trattamenti di dati personali nel settore della giustizia penale).

La norma, speculare all’art. 22 GDPR, impone delle restrizioni all’utilizzo di trattamenti automatizzati, lasciando però spazio alle norme nazionali, che devono prevedere anche le garanzie adeguate per gli interessati, di disciplinare l’utilizzo di tali sistemi, comunque vietando tout court la possibilità di utilizzare dati a tal fine che rientrino nelle particolari categorie di cui all’art. 9. Insomma, sembra il rapporto fra intelligenza artificiale e diritto sia difficoltoso.

La strategia italiana per l’intelligenza artificiale

Il rapporto richiama anche la “strategia italiana per l’intelligenza artificiale” pubblicata dal MISE (2 luglio 2020) in cui si evidenziano le sfide e gli obiettivi che il nostro paese si pone nella ricerca di un progetto nazionale sulle tecnologie di AI e con cui si suggeriscono delle azioni per l’attuazione di progetti futuri.

In verità, vi sono altri ambiti in cui in Italia si prevede l’utilizzo degli algoritmi per l’adozione di decisioni automatizzate o veri e propri sistemi di intelligenza artificiale. Ad esempio le disposizioni di vigilanza emanate dalla Banca d’Italia per l’adeguata verifica della clientela in materia di cd. antiriciclaggio, stabiliscono che l’elaborazione dei profili di rischio dovrebbe basarsi, per quanto possibile, su algoritmi e procedure informatiche. Anche il “Codice di condotta per i sistemi informativi gestiti da soggetti privati in tema di crediti al consumo, affidabilità e puntualità nei pagamenti” nella versione approvata il 19/9/2019 all’art. 10 stabilisce la possibilità di utilizzare trattamenti o processi automatizzati in fase di istruttoria per assegnare scoring dei soggetti censiti nelle relative banche dati.

L’intelligenza artificiale è stata poi introdotta direttamente nel testo dell’art. 7 del decreto legge 19 maggio 2020 n. 34, adottato per fronteggiare l’emergenza epidemiologica da COVID-19. In particolare, la norma ha stabilito che il Ministero della Salute può trattare i dati personali relativi alla salute raccolti nel SSN nonché i dati reddituali riferiti all’interessato e al nucleo familiare, il tutto con lo scopo di sviluppare metodologie predittive dell’evoluzione del fabbisogno della salute.

Conclusioni

Alessandro Longo e Guido Scorza nel loro libro “Intelligenza artificiale. L’impatto sulle nostre vite, diritti e libertà” hanno avuto modo di evidenziare come, a fronte degli svariati utilizzi dei sistemi di intelligenza artificiale (ma anche degli algoritmi per decisioni automatizzate) che si stanno sempre più concretizzando nella nostra società, vi siano in realtà poche regole di diritto positivo idonei a regolarli.

La disciplina chiave rimane quella dell’art. 22 GDPR, ma è evidente che essa da sola non può regolamentare tutte le ipotesi di utilizzo dell’intelligenza artificiale nel contesto sociale e inoltre, ci sia consentito affermarlo, il meccanismo previsto da tale norma appare facilmente eludibile anche tenuto conto dell’indebolimento dal punto di vista normativo che essa ha subito nell’eliminazione del cd. “right of explanation” della decisione assunta.

Sembra, quindi, che i tempi stiano maturando per l’adozione di un vero e proprio “Statuto dell’intelligenza artificiale”, che, prendendo spunto dai due autori appena citati, dovrebbe tradursi in una “fase di codificazione o costituzionalizzazione di un set minimo di “proiezioni moderne” di diritti fondamentali” già presenti nella CEDU (Corte europea dei diritti dell’Uomo) o nelle nostre Costituzioni.

La sfida per l’intelligenza artificiale, infatti, non riguarda solo il corretto trattamento dei dati personali, ma tocca diritti fondamentali e libertà degli individui, quali il principio di uguaglianza, il principio di autodeterminazione individuale, la libertà di manifestazione del pensiero. Su tale fronte sembra che qualcosa si stia finalmente realizzando. Dopo aver delineato la base di principi etici che deve guidare l’uso di tale tecnologie sembrano maturi i tempi per tradurre tali indicazioni in diritto positivo.

Recentemente, infatti, il Parlamento Europeo ha adottato tre risoluzioni sull’intelligenza artificiale  ((A9 – 0186/2020) sull’applicazione dei principi etici – (A9-0178/2020) sul regime della responsabilità civile per danni e pregiudizi arrecati da sistemi di AI – (A9- 0176/2020) sui diritti di proprietà intellettuale)) con le quali si propone l’adozione di testi regolamentari in tali settori che prendono spunto proprio da tutti i lavori finora compiuti in sede unionale.

Rimane ferma la necessità, a parere di chi scrive, che alcuni dei principi individuati vengano recepiti a livello ancora più alto, e che si avvii una riflessione a livello di diritti fondamentali per adattare le libertà e guarentigie maturate nel corso degli ultimi tre secoli di storia europea alla nuova rivoluzione dell’informazione.

WEBINAR
Come gestire a distanza il cliente? Rendi “all digital” vendita, contrattualistica e customer care

 

FacebookTwitterLinkedIn