AI e diritti umani: le raccomandazioni dell’Alto Commissario dell’ONU

Nel report pubblicato il 13 settembre 2021 dal titolo “Il diritto alla privacy nell’era digitale”, in cui l’organizzazione analizza il rapporto tra l’AI e il diritto delle persone alla privacy e i diritti associati. Ne emerge un quadro preoccupante in termini di compromissione che richiede un intervento immediato [...]
  1. Home
  2. Intelligenza Artificiale
  3. AI e diritti umani: le raccomandazioni dell’Alto Commissario dell’ONU

Lo sviluppo pervasivo delle tecnologie di intelligenza artificiale ha preoccupato il Consiglio per i diritti umani dell’ONU che nel Report del 13 settembre 2021 ha indagato gli impatti dell’AI sul diritto alla privacy e sugli altri diritti umani fornendo una cassetta degli attrezzi agli Stati e alle aziende per aiutarli a gestire il progresso tecnologico applicando principi fondamentali quali l’uguaglianza, la non discriminazione, la responsabilità, la legittimità, la necessità e la proporzionalità a garanzia di tutti i diritti umani.

“Nel migliore dei casi, la rivoluzione digitale darà potere, connetterà, informerà e salverà vite. Nel peggiore dei casi, disarma, disconnette, disinforma e costa vite umane”.

Michelle Bachelet

Questo è il messaggio dell’Alto Commissario delle Nazioni Unite per i Diritti Umani, Michelle Bachelet, capace di condensare efficacemente le potenziali conseguenze dell’uso dell’intelligenza artificiale (AI) e che si unisce perfettamente al coro delle posizioni espresse dalle Autorità di controllo e dalle principali Istituzioni europee.

Se da un lato, infatti, l’AI può rappresentare un potente strumento per il bene dell’uomo, aiutando le società a superare alcune delle grandi sfide del nostro tempo, d’altra parte, le tecnologie di AI, se utilizzate senza adeguate garanzie, possono avere effetti negativi, persino catastrofici, influenzando e violando, su larga scala e con scarsa visibilità, i diritti fondamentali delle persone.

La consapevolezza di questa “doppia faccia” dell’AI, come noto, ha già portato ad una pronta azione da parte dell’Europa che, così come è stato con il GDPR in relazione alla protezione dei dati personali, anche nell’ambito dell’AI è d’esempio per il resto del mondo. La Commissione europea ha infatti iniziato un esercizio di regolamentazione molto ambizioso sull’AI pubblicando il 21 aprile 2021 una prima bozza di Regolamento, il cui compimento di certo richiederà diversi anni, soprattutto per l’inarrestabile mutevolezza dei fenomeni di AI, ma che intanto rappresenta un segnale importante che si pone l’obiettivo di orientare la corsa al processo tecnologico e trovare soluzioni nel rispetto dell’individuo e dei suoi diritti fondamentali.

Michelle Bachelet, sottolineando che una delle questioni più urgenti sui diritti umani che dobbiamo affrontare è colmare l’immenso vuoto di responsabilità nel modo in cui i dati vengono raccolti, conservati, condivisi e utilizzati, data la rapida e continua crescita dell’AI e la sua pervasività nella nostra vita fisica, mentale ed emotiva, ha espresso la necessità di una moratoria sulla vendita e l’uso di sistemi di AI (in particolare le tecnologie di riconoscimento biometrico a distanza negli spazi pubblici) finché non saranno messe in atto adeguate salvaguardie, e richiesto il divieto di utilizzo delle applicazioni di AI che non possono essere utilizzate nel rispetto della legge internazionale sui diritti umani.

Tale posizione costituisce l’esito di un report pubblicato il 13 settembre 2021 dal titolo “Il diritto alla privacy nell’era digitale”, in cui l’Ufficio delle Nazioni Unite per i diritti umani ha analizzato il rapporto tra l’AI (tra cui la profilazione, il processo decisionale automatizzato e altre tecnologie di apprendimento automatico) e il diritto delle persone alla privacy e i diritti associati (tra cui il diritto alla salute, all’istruzione, alla libertà di movimento, alla libertà di riunione pacifica e di associazione, e alla libertà di espressione).

Il report ha infatti fatto emergere una serie di rischi per la privacy e altri diritti umani, in particolare il rischio di discriminazione legato alle decisioni guidate dall’AI, per esempio per determinare quali soggetti far accedere AI servizi pubblici o per selezionare il candidato da assumere, basandosi su grandi set di dati spesso non aggiornati o non pertinenti, raccolti, condivisi e aggregati con modalità poco trasparenti.

WHITEPAPER
Gestione dei contratti e GDPR: guida all’esternalizzazione di attività dei dati personali
Legal
Privacy

Queste conseguenze negative non sono solo previsioni dotate di una certa probabilità, sono piuttosto le prime evidenze osservabili nella realtà. Come ha ricordato Michelle Bachelet, si sono già verificati casi di persone trattate ingiustamente a causa dell’AI, a cui, per esempio, sono stati negati i benefici dell’assistenza sociale a causa di strumenti di AI non correttamente impostati o che sono state arrestate a causa di un sistema di riconoscimento facciale difettoso.

In molti casi, si è assistito alla corsa da parte di Stati e imprese all’impiego di tecnologie di AI senza che contemporaneamente ci fosse un’adeguata trasparenza su come queste siano state progettate, sulle loro logiche di funzionamento e utilizzo e peraltro, senza la minima osservanza delle norme già vigenti in tema di protezione dei dati personali.

I settori più a rischio per i diritti umani

Quattro sono i settori chiave individuati nel report in cui l’applicazione degli strumenti di AI interferisce notevolmente con il diritto alla privacy e gli altri diritti fondamentali:

  1. forze dell’ordine, sicurezza nazionale, giustizia penale e gestione delle frontiere;
  2. servizi pubblici;
  3. lavoro;
  4. gestione delle informazioni on-line.

Rispetto alla prima area, si è osservato come gli Stati hanno deciso di avvalersi sempre più spesso di sistemi di AI per prevedere la commissione di reati e azioni terroristiche tramite la creazione di profili di persone potenzialmente “pericolose” basati sull’incrocio di grandi quantità di dati (per esempio, dati contenuti nei casellari giudiziari, nei registri di arresti, nelle statistiche sulla criminalità, nei post sui social media e dati sulle comunicazioni). Si è inoltre fatto largo uso di tecnologie di riconoscimento biometrico, per operare dei confronti con le rappresentazioni già contenute nei database, e di riconoscimento facciale remoto in tempo reale che sollevano diverse problematiche inerenti alla sfera più personale dell’individuo. Le informazioni biometriche, infatti, rivelano caratteristiche uniche delle persone, consentono di identificarle e sorvegliarle sistematicamente nei luoghi pubblici, minando la libertà di espressione, di riunione, di associazione e di movimento.

Guido Scorza

A riguardo, sono particolarmente incisive le parole del componente del Garante per la protezione dei dati personali, Guido Scorza, che in un video divulgativo ha commentato: “La nostra faccia è il contenitore di alcuni dei dati personali più preziosi che abbiamo, di dati biometrici, dati unici, capaci di consentire la nostra identificazione sempre e ovunque. Il riconoscimento facciale, che è una applicazione di AI che consente di confrontare i dati biometrici presenti nel nostro volto con quelli presenti in una qualsiasi fotografia, rappresenta un ambito tecnologico a cui prestare una attenzione particolare e bisogna procedere con estrema prudenza soprattutto in un contesto in cui gli algoritmi non sono ancora maturi e generano spesso errori. Anche in assenza di errori, le applicazioni di AI applicate alla sorveglianza di massa rischiano di consentire a chi le utilizza di sapere di ciascuno di noi più di quanto in una società democratica è lecito sappia. Non bisogna sbarrare la strada alla tecnologia ma non bisogna spianarla quando ci sono in gioco diritti fondamentali”.

In tema di riconoscimento facciale, si può ricordare anche il recente parere del Garante per la protezione dei dati personali che si è pronunciato non favorevole all’utilizzo del sistema Sari Real Time da parte del Ministero dell’Interno in quanto non conforme alla normativa sulla privacy. Il sistema, infatti, oltre ad essere privo di una base giuridica che legittimi il trattamento automatizzato dei dati biometrici, realizzerebbe per come è stato progettato una forma di sorveglianza indiscriminata di massa e quindi il trattamento di dati personali anche di persone che non sono oggetto di attenzione da parte delle Forze di Polizia per motivi di sicurezza.

Per quanto attiene i sistemi di AI utilizzati per fornire servizi pubblici si rileva che essi hanno senz’altro obiettivi non solo legittimi ma anche lodevoli quando, per esempio, collegati alla fornitura di beni e servizi per scopi umanitari. Spesso, però, si affida ad algoritmi fondati su logiche non corrette o parziali il processo decisionale su diritti all’assistenza sociale concentrandosi, per esempio, su dati relativi ad una specifica parte della popolazione, ad uno specifico quartiere e fascia di reddito. Un sistema di AI che incorpora pregiudizi storici nel processo decisionale inevitabilmente porta a ingiustizie e discriminazioni basate sul contesto socioeconomico, soprattutto nei confronti di minoranze e gruppi già emarginati.

L’uso dell’AI nel contesto lavorativo è sempre più frequente e coinvolge sia il processo di assunzione, promozione o licenziamento del lavoratore che pratiche di sorveglianza del suo comportamento e della sua prestazione di lavoro. In tempi di pandemia, il monitoraggio si è esteso anche in contesti personalissimi come le abitazioni dei lavoratori raccogliendo così dati ulteriori e non correlati al lavoro prestato. Innumerevoli, dunque, sono da un lato i rischi per la privacy del lavoratore conseguenti a pratiche di controllo illegittime, invasive o sproporzionate e d’altro lato i rischi di discriminazione del lavoratore sottoposto alle scelte di algoritmi non solidi e dall’impostazione pregiudizievole.

Per quanto concerne la gestione delle informazioni on-line in particolare da parte delle piattaforme di social media, l’uso di AI minaccia di aumentare le discriminazioni a seguito della profilazione delle persone; minaccia di comprimere la democrazia manipolando le scelte delle persone e rendendo loro accessibili solo un parte delle informazioni; minaccia di distorcere il libero gioco della concorrenza dal momento che alcune aziende detengono un patrimonio di dati tale da controllare un numero enorme di individui a livello mondiale.

In conclusione, il quadro complessivo che emerge dall’analisi condotta dall’ONU è preoccupante in termini di compromissione del diritto alla privacy e di altri diritti fondamentali dell’uomo associati all’AI e richiede un intervento immediato, con un approccio globale ai diritti umani, per rendere tali tecnologie un vero beneficio per tutti.

Le soluzioni prospettate dall’ONU

L’Alto Commissario delle Nazioni Unite per i Diritti Umani, all’esito della relazione, ha rivolto una serie di raccomandazioni in primis agli Stati, successivamente agli Stati ed alle imprese insieme e infine solo alle imprese commerciali.

Nello specifico, agli Stati, sottolineando che il presupposto fondamentale da cui partire risiede nel riconoscere pienamente la necessità di proteggere e rafforzare tutti i diritti umani nello sviluppo, nell’uso e nella governance dell’AI, e assicurare un uguale rispetto e applicazione di tutti i diritti umani online e offline, si richiede di:

  • Garantire che l’uso dell’AI sia conforme a tutti i diritti umani e che qualsiasi interferenza con il diritto alla privacy e altri diritti umani attraverso l’uso dell’AI sia prevista dalla legge, persegua uno scopo legittimo, sia conforme ai principi di necessità e proporzionalità e non danneggi l’essenza dei diritti in questione;
  • vietare espressamente le applicazioni di AI che non possono essere gestite nel rispetto della legge internazionale sui diritti umani e imporre moratorie sulla vendita e l’uso di sistemi di AI che comportano un alto rischio per il godimento dei diritti umani, a meno che e fino a quando non siano in atto adeguate garanzie per proteggere i diritti umani;
  • imporre una moratoria sull’uso delle tecnologie di riconoscimento biometrico a distanza negli spazi pubblici, almeno fino a quando le autorità responsabili non saranno in grado di dimostrare il rispetto della privacy e degli standard di protezione dei dati e l’assenza di problemi significativi di accuratezza e di impatti discriminatori;
  • adottare e applicare efficacemente, attraverso autorità indipendenti e imparziali, una legislazione sulla privacy dei dati per il settore pubblico e privato come prerequisito essenziale per la protezione del diritto alla privacy nel contesto dell’AI;
  • adottare quadri legislativi e normativi che prevengano e attenuino adeguatamente i molteplici impatti negativi sui diritti umani legati all’uso dell’AI da parte del settore pubblico e privato;
  • assicurare che le vittime di violazioni e abusi dei diritti umani legati all’uso dei sistemi di AI abbiano accesso a rimedi efficaci;
  • richiedere un’adeguata spiegabilità di tutte le decisioni supportate dall’AI che possono incidere significativamente sui diritti umani, in particolare nel settore pubblico;
  • aumentare gli sforzi per combattere la discriminazione legata all’uso dei sistemi di AI da parte degli Stati e delle imprese commerciali, anche conducendo, richiedendo e sostenendo valutazioni e monitoraggi sistematici dei risultati dei sistemi di AI e degli impatti del loro impiego;
  • assicurare che i partenariati pubblico-privato nella fornitura e nell’uso delle tecnologie di AI siano trasparenti e soggetti ad una supervisione indipendente sul rispetto dei diritti umani.

Agli Stati e alle imprese commerciali si raccomanda di:

  • condurre sistematicamente due diligence sui diritti umani durante tutto il ciclo di vita dei sistemi di AI che si progettano, sviluppano, implementano, vendono, ottengono o gestiscono. Un elemento chiave della due diligence dovrebbe essere una valutazione regolare e completa dell’impatto sui diritti umani;
  • aumentare drasticamente la trasparenza quando si usano sistemi di AI, anche informando adeguatamente il pubblico e gli individui interessati e permettendo una revisione indipendente ed esterna dei sistemi automatizzati. Più probabile e grave è l’impatto potenziale o reale sui diritti umani legato all’uso dell’AI, più trasparenza è necessaria;
  • assicurare la partecipazione di tutte le parti interessate alle decisioni sullo sviluppo e l’utilizzo dell’AI e far progredire la spiegabilità delle decisioni basate sull’AI, anche finanziando e conducendo ricerche in tal senso.
WHITEPAPER
Quali sono le strategie da seguire per difendersi contro gli attacchi di phishing?
Sicurezza
Cybersecurity

Alle imprese commerciali, infine, si suggerisce di:

  • compiere tutti gli sforzi necessari ed aumentare la propria responsabilizzazione per garantire il pieno rispetto di tutti i diritti umani e per combattere la discriminazione generata dallo sviluppo, la vendita o il funzionamento dei sistemi di AI, anche conducendo valutazioni e monitoraggi sistematici dei risultati e degli impatti del loro impiego;
  • fare passi decisivi per garantire la diversità della forza lavoro responsabile dello sviluppo dell’AI;
  • fornire o cooperare per riparare i danni laddove abbiano causato o contribuito a generare impatti negativi sui diritti umani, anche attraverso efficaci meccanismi di reclamo a livello operativo.
FacebookTwitterLinkedIn