Intelligenza artificiale e privacy: confronto fra gli elementi essenziali

Il Regolamento Europeo sulla protezione dei dati considera gli algoritmi ambito di applicabilità materiale se hanno a oggetto dati personali. L’art. 4 del GDPR recita “[…] qualsiasi operazione o insieme di operazioni che possono essere effettuate o meno con mezzi automatici e applicate a dati o gruppi di dati personali”. Nel complesso i dati raccolti attraverso soluzioni di AI devono rispondere a criteri di adeguatezza e pertinenza, nonché limitati a quanto necessario per le finalità per le quali sono trattati (art. 5 GDPR

Pubblicato il 02 Nov 2020

Massimo Zampetti

Partner - Data Protection Officer

AI gdpr

Le considerazioni circa la massiccia raccolta di dati “personali e non” che le soluzioni di intelligenza artificiale sono solite operare offrono spunti interessanti ma anche preoccupazione. L’A.I. mira di fatto a costruire macchine e/o sviluppare algoritmi in grado di imitare autonomamente l’intelligenza umana, con il fine di risolvere problemi e casi di natura complessa. I dati diventano benzina pura, fonte di energia che alimenta il complesso meccanismo capace di progredire in modo strettamente correlato alla quantità di informazioni processate. È dunque inevitabile riflettere quanto tale scenario risulti avvincente se si considera l’utilità di impiego in svariati contesti operativi, implicando in qualche caso potenziali rischi di compromissione e di violazione dei dati personali. Una domanda lecita sorge spontanea: con l’intelligenza artificiale, la nostra privacy è davvero a rischio?

L’impiego dei nostri dati in settori di forte impatto sociale e in ambienti fortemente redditizi genera lecite preoccupazioni. La tempesta mediatica, oltreché giudiziaria, che ha coinvolto la società “Cambridge Analytica” è uno degli esempi lampanti di come un’enorme quantità di informazioni personali sia stata raccolta all’oscuro di circa 50 milioni di cittadini americani. Un semplice test sulla personalità creato da un professore dell’Università di Cambridge e disponibile sull’App di Facebook, che aveva riscontrato un enorme successo, diventando in breve tempo popolare. Sappiamo come è andata.

La vicenda di Cambridge Analytica dimostra in primo luogo il fallimento delle nostre istituzioni più antiche, come la democrazia, maggiormente esposte al pericolo di eversivi processi di ingegnerizzazioni delle masse elettorali attraverso l’utilizzo di tecniche di analisi dei Big data e soluzioni di AI/ML (Machine Learning); in secondo luogo, tuttavia, si avvalorano le considerazioni su un ulteriore fallimento dei governi, legato questa volta alla protezione dei nostri dati personali. La privacy dei cittadini non può essere posta sulla cima di deboli promesse annientate da attività illecite e accordi redditizi.

Le opportunità di business basate sull’utilizzo di AI e ML si espandono, diventando sempre più pervasive al punto da spingere gli Stati e le organizzazioni a disciplinare nuovi aspetti e nuove sfumature di un settore con un forte impatto sociale.

Il rapporto fra intelligenza artificiale e privacy

Il Regolamento Europeo sulla protezione dei dati (GDPR), entrato in vigore da maggio 2018, è l’ultimo sforzo dell’UE, dopo un processo lungo che trova le sue origini nella direttiva 95/46/CE, al fine di regolare uniformemente in tutti gli Stati membri le politiche di trattamento dei dati secondo i principi di liceità, correttezza e proporzionalità nel rispetto della dignità umana e delle libertà fondamentali. Il GDPR, dunque, spinge l’asticella della tutela della privacy a livelli altissimi per qualsiasi realtà che elabori o esternalizzi l’elaborazione dati di cittadini dell’UE. Esistono requisiti rigorosi che disciplinano il consenso, la protezione dei dati fin dalla progettazione (“privacy by design”) e come impostazione predefinita (“privacy by default”), la diffusione/comunicazione di dati, il trasferimento di dati in territori extra-Ue e molto altro, con severe sanzioni in caso di data breach. La sfida per l’intelligenza artificiale e la privacy è spostata molto in alto.

L’aspetto tuttavia interessante su cui vale la pena soffermarsi riguarda il funzionamento di un particolare algoritmo. Questo consente di comprendere appieno quali sono gli aspetti su cui ancora oggi si celano potenziali rischi per la nostra privacy. Se un algoritmo è una sequenza di istruzioni che permette di ottenere un risultato da determinati elementi, lo sviluppo di nuove tipologie di algoritmi di apprendimento (o machine learning) rappresenta una rottura qualitativa; partendo dal determinismo degli algoritmi classici, l’algoritmo di apprendimento ha la particolarità di essere progettato in modo tale da poter scoprire da solo le operazioni da seguire. Questa capacità di imparare “da soli” implica un grado crescente di autonomia dell’algoritmo rispetto al suo programmatore. È chiaro che dove il programmatore ha definito la sequenza di istruzioni che l’algoritmo classico segue, ora addestrerà l’algoritmo di apprendimento con esempi. Se nel primo caso l’algoritmo è deterministico, nel secondo diventa probabilistico e la macchina dal servire come era in relazione al programmatore si libera progressivamente da lui. Nonostante la differenza sostanziale, la posta in gioco rimane la stessa per l’uomo: si tratta infatti di preservare la nostra capacità di tutelare il diritto alla privacy e alla dignità. A tal proposito, mentre la portata e l’utilità delle norme esistenti non dovrebbero essere ridotte al minimo, l’ascesa dell’AI genera di fatto nuove questioni alle quali la legislazione dovrà adeguarsi.

Di fatto il Regolamento Europeo considera gli algoritmi ambito di applicabilità materiale se hanno a oggetto dati personali. L’art. 4 del GDPR recita “[…] qualsiasi operazione o insieme di operazioni che possono essere effettuate o meno con mezzi automatici e applicate a dati o gruppi di dati personali”. Nel complesso i dati raccolti attraverso soluzioni di AI devono rispondere a criteri di adeguatezza e pertinenza, nonché limitati a quanto necessario per le finalità per le quali sono trattati (art. 5 GDPR).

Le cinque regole essenziali per la privacy nell’AI

Ulteriore disciplina deriva dalle cinque regole essenziali da applicarsi a qualsiasi forma di trattamento, inclusi i sistemi di AI (e quindi anche per intelligenza artificiale e privacy). In primo luogo, il trattamento deve essere lecito (art. 6 GDPR): è lecito se l’interessato ha acconsentito al trattamento dei suoi dati personali per una o più specifiche finalità o se il trattamento è necessario per le finalità legittime perseguite dal titolare. In secondo luogo, il trattamento dei dati deve essere equo e trasparente, il che implica che le informazioni relative al trattamento devono essere facilmente accessibili e facilmente comprensibili. In altre parole, ognuno ha il diritto di ottenere informazioni sul funzionamento dell’algoritmo. Tale aspetto potrebbe risultare un impedimento per quelle società che hanno un forte interesse a mantenere segrete le logiche di funzionamento stesse alla base degli algoritmi. Se la caratteristica degli algoritmi di apprendimento è proprio quella di poter sviluppare i propri criteri di funzionamento, e quindi di acquisire una crescente autonomia man mano che imparano da soli, come è possibile garantire che il modo in cui i risultati sono stati ottenuti rimanga comprensibile? Il fatto che il loro modo di funzionamento può talvolta diventare difficile da spiegare anche per il programmatore stesso che è all’origine dell’algoritmo, a maggior ragione genera dubbi sulla capacità dell’”utente” di questo algoritmo di capire come funziona.

La questione è sicuramente aperta e l’assenza di conoscenza del meccanismo di apprendimento potrebbe far crollare il principio della trasparenza nel trattamento dei dati. Tali considerazioni tuttavia possono generare esigenze contrapposte. Il rispetto del Regolamento europeo non richiede di fatto la divulgazione di codici sorgenti in quanti tali, coperti tra l’altro dal segreto industriale; ciò che si richiede, nonostante la evidente difficoltà è la riduzione/eliminazione dell’asimmetria informativa che renda possibile l’individuazione dei meccanismi di apprendimento e di decisione, nonché la dinamica dei flussi dei dati raccolti. L’esigenza è quella di prevenire e ripristinare errori che un modello/sistema di AI potrebbe generare, attraverso l’utilizzo di dati personali e, potenzialmente con impatti moralmente/eticamente significativi. Infatti, la capacità dell’algoritmo di apprendere correttamente è direttamente influenzata dalla scelta dei dati che gli vengono forniti durante la fase di apprendimento. Si pensi ad esempio al caso Microsoft, che nel 2016 dovette chiudere il chatbot Tay, un robot conversazionale alimentato da dialoghi presenti sui social network. Sebbene l’obiettivo fosse quello di avviare e sostenere conversazioni con i millennials, ben presto divenne un generatore di commenti xenofobi e misogini, costringendo gli ingegneri dell’azienda di Redmond a scollegarlo. Questo esempio mostra chiaramente come il rischio di influenzare irrimediabilmente l’AI sia enorme in caso di scarsa selezione dei dati di cui ha bisogno durante la fase di apprendimento.

L’esempio ci riporta alla terza regola essenziale, che pone l’attenzione sui cosiddetti dati sensibili. In linea di principio si rendono vietati i trattamenti di dati che rilevano l’origine razziale o etnica, le opinioni politiche, le convinzioni religiose, o filosofiche o l’appartenenza sindacale, nonché i dati genetici relativi alla salute o all’orientamento sessuale, con alcune eccezioni ben precise disciplinate dall’art 9 del GDPR.

In quarto luogo, il GDPR sancisce il diritto dell’individuo di opporsi, in determinati casi e “per motivi legati alla sua particolare situazione”, al trattamento dei dati o alla profilazione (art. 21 GDPR).

Infine, sempre in campo di intelligenza artificiale e privacy, una disposizione essenziale risiede nell’art. 22 del GDPR che sancisce il diritto dell’interessato a non essere oggetto di una decisione basata esclusivamente su un trattamento automatizzato che produce effetti giuridici che lo riguardano in modo significativo. Ogni persona dunque, ha il diritto che le decisioni importanti che lo riguardano non siano prese da un algoritmo in modo automatico, ma da un essere umano. Questa disposizione si riferisce in particolare alla profilazione, definita a grandi linee all’art. 4 del GDPR come qualsiasi forma di elaborazione. L’elaborazione automatizzata dei dati consiste nell’utilizzo dei dati “[…] per valutare alcuni aspetti personali relativi a un individuo, in particolare per analizzare o prevedere questioni riguardanti le prestazioni lavorative, la situazione economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento, il luogo o i movimenti di quell’individuo”.

Anche sotto questo aspetto, gli algoritmi di apprendimento presentano una questione particolarmente complicata dal momento che risulta impossibile, o quanto meno difficile garantire che il potere di raccomandazione e di previsione degli algoritmi decisionali rimanga limitato ad una decisione umana, senza sostituirla. In futuro, gli algoritmi diventeranno sempre più complessi ed efficienti al punto che sarà difficile discostarsi dalle loro raccomandazioni. A oggi vi sono numerosi esempi di come la diagnosi algoritmica risulti più affidabile della valutazione umana.

L’esigenza di trovare soluzioni alle nuove sfide poste dall’AI, ha spinto, recentemente, la Commissione Europea a istituire un gruppo di esperti ad alto livello in veste di rappresentanza di una vasta gamma di portatori di interesse, incaricato di stendere linee guida e raccomandazioni per una più ampia politica in materia di AI. Allo stesso tempo è stata istituita l’Alleanza europea per l’AI, piattaforma multilaterale aperta con oltre 2700 membri, per fornire un contributo più vasto ai lavori del gruppo di esperti.

Con l’obiettivo di rafforzare la fiducia nell’AI, il gruppo di esperti ha posto al centro di tutto l’essere umano. Le applicazioni di AI non solo devono rispettare le leggi, ma anche osservare i principi etici e garantire che le loro attuazioni pratiche non comportino danni indesiderati. Le diversità di sesso, di razza o origine etnica, religione o convinzioni personali, disabilità ed età devono essere garantite in ogni fase di sviluppo dell’AI. Insomma, passi importanti verso l’unione fra intelligenza artificiale e privacy.

Dalla enucleazione delle cinque regole essenziali statuite dal GDPR, si evince chiaramente il tentativo di raggiungere un elevato livello di protezione dell’individuo, ma di fatto permangono numerosi aspetti che necessitano un’implementazione dell’impianto normativo. L’estensione di una nuova regolamentazione specifica sui dati non personali renderebbe possibile disciplinare tutti quei contesti in cui l’artificial intelligence opera.

I sette requisiti fondamentali, qui di seguito riportati, individuati dal gruppo di esperti e che le soluzioni di AI “dovrebbero” soddisfare per definirsi “affidabili”, dimostrano un passo ulteriore verso la direzione giusta. Per ora si tratta di una fase pilota fatta di semplici orientamenti etici, ma che presto vedrà un’attuazione pratica. Inoltre, la Commissione si adopererà per creare un ampio consenso sociale coinvolgendo tutti i portatori di interessi e i partner internazionali.

Sette requisiti fondamentali per coniugare intelligenza artificiale e privacy

Intervento e sorveglianza umani

Partendo dal primo requisito fondamentale, il gruppo di esperti mira a garantire che l’intervento e la sorveglianza umana costituiscono una buona base di partenza per risolvere pericoli connessi al mancato controllo umano nei sistemi e processi di AI. In altre parole, tale requisito concerne l’attribuzione del processo decisionale ad un essere umano. Si è detto che il Regolamento Europeo sancisce per ciascun individuo il diritto a non essere sottoposto a processi di decisione basata esclusivamente su un’elaborazione automatizzata. In questo senso, la capacità dell’essere umano di monitorare e mantenere il controllo dell’AI dovrebbe essere assolutamente garantita. La soluzione deve quindi trovarsi nell’interazione umana, mendiate intervento in tutte le fasi del processo decisionale (modelli cosiddetti Human in the loop – HITL), o ancora durante la progettazione del sistema al fine di garantirne il corretto funzionamento (Human on the loop – HOTL), e infine, lungo l’intera attività dell’AI (Human-in-command, HIC). L’assenza di meccanismi di governance potrebbe ridurre, limitare e fuorviare l’autonomia umana, venendo meno a quell’ideale di AI antropocentrica che pone al centro della funzionalità del sistema il benessere dell’utente e la difesa dei suoi diritti fondamentali.

Robustezza tecnica e sicurezza

I dati utilizzati per alimentare gli algoritmi di apprendimento dovrebbero rispondere a criteri di qualità, pertinenza e imparzialità al fine di evitare che il processo di autoapprendimento riproduca all’infinito errori presenti nei dati utilizzati per il suo apprendimento (si pensi ad esempio ai dati incompleti oppure manomessi a seguito di un attacco informatico, o ancora, inficiati da condizionamenti, pregiudizi e discriminazioni). L’obiettivo è quello di giungere ad un adeguato livello di affidabilità che renda sufficientemente accurati i dati e gli algoritmi di apprendimento e garantire la presenza di misure di sicurezza fin dalla progettazione dei sistemi. Ciò consente di ridurre al minimo effetti involontari o potenziali errori strutturali in tutte le fasi del ciclo di vita del sistema di AI.

Riservatezza e governance dei dati

Permane la necessità di garantire la tutela della riservatezza e un livello di protezione dei dati che assicuri un più elevato sentimento di fiducia negli utenti. I sistemi di AI sono in grado di dedurre da una comune registrazione digitale non solo preferenze, età e genere, ma anche l’orientamento sessuale, il credo religioso o politico. Occorre dunque garantire alle persone il pieno controllo dei dati personali e la garanzia che gli stessi non verranno utilizzati per arrecare danno o discriminazioni. Inoltre, emerge la necessità di garantire l’integrità dei dati, testando e documentando in ogni fase i processi e i set di dati utilizzati.

Trasparenza

Potrebbe anche essere richiesto un requisito di tracciabilità dei dati utilizzati, in modo che la loro origine sia documentata. Come già anticipato, l’assenza di distorsione e la tracciabilità non comporterebbe di fatto un potenziale rischio per il segreto industriale e i diritti di proprietà intellettuale sui codici sorgenti e sui database utilizzati per apprendere, ma semplicemente garantirebbe un più adeguato grado di informazione dell’utente e una più certa trasparenza sulla natura dei dati utilizzati.

Diversità, non discriminazione ed equità

Il pericolo maggiore di un set di dati utilizzati dall’AI è il condizionamento derivato da manomissioni, errori involontari, incompletezza o ancora modelli di governance inadatti, che potrebbero potenzialmente generare discriminazioni o pregiudizi. Si è visto con il chatbot Tay di Microsoft quanti rischi possa generare il processo di apprendimento dai un algoritmo. La soluzione, dunque, è da trovarsi nella creazione di gruppi di progettazione diversificati, nonché la partecipazione diretta dei cittadini allo sviluppo di soluzioni di AI, favorendo parità di accesso anche per persone con disabilità.

Benessere sociale e ambientale

L’interesse del gruppo di esperti si è spinto anche a considerare gli impatti sull’ambiente e sugli altri esseri senzienti. La sostenibilità e la responsabilità ecologica sono temi al quale i sistemi di AI non devono sottrarsi, ma al contrario fungere da incentivo nella realizzazione di soluzioni ad impatto zero e orientate alla conservazione di valori importanti per l’intera umanità come per esempio la biodiversità e l’ambiente abitabile.

Accountability

Il principio di responsabilizzazione è un principio già largamente disciplinato dal Regolamento europeo, ma l’obiettivo del gruppo di esperti è quello di garantire che anche in sistemi di AI siano presenti meccanismi di verificabilità, in quanto la valutazione di tali sistemi da parte di revisioni interni ed esterni contribuiscono all’affidabilità della tecnologia. Le valutazioni di impatto dovranno essere proporzionate all’entità dei rischi che i processi di AI comportano.

Conclusioni

In conclusione, le regole derivanti dal Regolamento europeo devono essere riaffermate e, in alcuni casi, adattate alle nuove questioni sollevate dall’AI. Garantire il diritto di sapere che il nostro interlocutore non è un essere umano ma un algoritmo, il diritto di sapere e capire che uso viene fatto dei nostri dati, in particolare quando raccomanda o prevede qualcosa che ci riguarda, il diritto di assicurarsi che questa raccomandazione o previsione sia equa e imparziale, e infine il diritto di assicurarsi che l’AI rimanga, nel caso di decisioni più importanti, confinata ad un ruolo di aiuto decisionale, senza sostituirsi all’essere umano. In altre parole, queste sono le sfide che dovranno trovare una soluzione attraverso l’elaborazione di un quadro normativo che disciplini in modo chiaro i progressi attesi dallo sviluppo di sistemi di AI, preservando una serie di valori fondamentali, quali la dignità umana, la libertà, la democrazia, l’uguaglianza e diritti umani su cui l’Unione Europea si fonda.

Oggi, ascoltare le previsioni meteo del nostro assistente virtuale o lasciarsi guidare da una vettura in perfetta autonomia non suscita più alcun particolare stupore. Tuttavia, non dobbiamo dimenticare che il progresso tecnologico che rende le nostre vite sempre più “smart” deriva da un lungimirante progetto volto a rendere concreto il sogno atavico dell’uomo: ovvero costruire una macchina “pensante”, in grado di replicare azioni e capace di decidere alla stregua della mente umana. Con la realizzazione dei primi elaboratori elettronici, nella prima metà del Novecento nasceva una nuova disciplina, dapprima conosciuta come programmazione euristica, ma brevemente diffusasi con il nome di intelligenza artificiale, termine introdotto per la prima volta da John McCarthy durante una conferenza a Dartmouth nel 1956.

L’intelligenza artificiale è sicuramente una disciplina dibattuta tra scienziati e filosofi poiché manifesta aspetti etici oltre che teorici e pratici. Lo stesso astrofisico inglese Stephen Hawking manifestò le sue perplessità e i suoi timori sullo sviluppo di sistemi di AI. Durante un suo intervento al Web Summit di Lisbona del 2017 egli utilizzò queste parole: “[…] Siamo sulla soglia di un mondo completamente nuovo. I benefici possono essere tanti, così come i pericoli. “[…] E le nostre A.I. devono fare quel che vogliamo che facciano”. “[…] Ogni aspetto della nostra vita verrà trasformato. Ma è anche possibile che con la distruzione di milioni di posti di lavoro venga distrutta la nostra economia e la nostra società”. Più recentemente anche il celebre fondatore di Tesla Motors, Elon Musk, condivise con un Tweet le sue preoccupazioni circa la pericolosità che l’artificial intelligence potrebbe concretamente rappresentare per l’intera umanità.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2