Potenzialità e limiti normativi dell’utilizzo dell’AI nel contrasto alla pandemia

Una delle tecniche più utili è il machine learning, che consente l’analisi di enormi quantità di dati e l'acquisizione di molteplici esperienze, sottoposte poi a elaborazione tramite algoritmi complessi che consentono di riconoscere le immagini, monitorare i rischi e identificare i trend [...]
AI scuola
  1. Home
  2. Intelligenza Artificiale
  3. Potenzialità e limiti normativi dell’utilizzo dell’AI nel contrasto alla pandemia

Artificial intelligence is developing fast“. L’introduzione al White Paper on Artificial Intelligence, pubblicato nel febbraio 2020 dalla Commissione Europea, evidenzia fin da subito come tale ambito sia diventato un argomento di primo piano. L’Unione Europea sta cercando di non perdere questa opportunità di sviluppo, elaborando strategie e regole comuni che possano essere adottate da tutti gli Stati membri.

AI, sistemi “deboli” o “forti”

Come è noto, i sistemi di intelligenza artificiale (AI) sono software progettati dall’uomo, in grado di raccogliere ed elaborare dati allo scopo di individuare le azioni necessaria per raggiungere l’obiettivo prefissato. Tali sistemi possono essere deboli o forti, a seconda che siano in grado unicamente di applicare le regole impostate o anche di sviluppare un proprio pensiero. In un momento così difficile come quello che stiamo vivendo, l’uso dell’AI nella lotta contro il Covid-19 acquista grande importanza. Abbiamo bisogno di una tecnologia che ci aiuti nel determinare come il virus si sta diffondendo, prevedere quali sono le sue possibili mutazioni e chi sono le persone maggiormente a rischio. A questo proposito, il machine learning può dare un contributo decisivo nel contrastare la pandemia. Il machine learning consente la raccolta di enormi quantità di dati e l’acquisizione di molteplici esperienze, che vengono poi sottoposte ad una elaborazione con l’ausilio di algoritmi complessi, che permettono alla macchina di riconoscere le immagini, monitorare i rischi e identificare i trend.

È tuttavia il caso di ricordare che l’AI può essere di grande supporto ma anche rischiosa. Il pericolo può riguardare la salute, la privacy e/o comportare la limitazione dei diritti di libertà e di espressione. Il legislatore è tenuto a prestare grande attenzione affinché questi rischi non si concretizzino.

Le indicazioni per lo sviluppo di sistemi di AI

Il quadro normativo relativo all’AI annovera molteplici fonti a cui riferirsi. Tra le più recenti, il White Paper on Artificial Intelligence della Commissione Europea, che individua i rischi associati all’implementazione di sistemi di AI e individua le caratteristiche necessarie a garantire il rispetto dei diritti degli interessati.

I rischi associati all’utilizzo della AI riguardano anzitutto i diritti degli individui, che possono essere fortemente colpiti e danneggiati: è dunque necessario che la strutturazione dei sistemi di AI e il loro utilizzo siano eticamente adeguati. Per garantire idonea tutela agli individui, ruolo centrale viene ricoperto dalla tecnologia utilizzata, che deve assicurare elevati livelli di sicurezza.

Proprio la Commissione Europea – con le European Commission issued Ethics Guidelines for Trustworthy AI, aprile 2019 – evidenzia che i sistemi di AI dovrebbero essere legittimi, etici e affidabili (robusti). Al fine di garantire il rispetto dei diritti fondamentali, è dunque necessario chiedersi se un determinato sistema garantisca il rispetto della dignità umana, l’uguaglianza, la non discriminazione, la solidarietà. Per quanto infatti alcuni diritti possano essere limitati per necessità straordinarie e superiori – come la lotta contro una pandemia – tale limitazione dovrebbe avvenire soltanto in forza di specifiche disposizioni di legge e unicamente nei limiti di quanto necessario al conseguimento dello scopo. A titolo esemplificativo, ma molto attuale, l’uso di applicazioni e sistemi di tracciamento dei cittadini al fine di determinare chi sia (o sia stato) affetto da Covid-19, comporta il rischio di una notevole limitazione del principio di libertà dell’individuo.

I punti essenziali individuati dalla Commissione Europea

Al fine di assicurare che i rischi connessi all’uso di una tecnologia AI siano ridotto quanto possibile, la Commissione Europea ha poi individuato alcuni requisiti essenziali, che dovrebbero essere rispettati:

  • i dati raccolti e utilizzati devono coprire il più ampio ventaglio in termini di genere, etnia e altre classificazioni, così da consentire un’analisi ad ampio spettro che sia in grado di comprendere la (quasi) totalità degli scenari;
  • la programmazione dell’algoritmo deve sottostare al requisito di conservazione;
  • ai cittadini devono essere fornite tutte le informazioni in relazione alle funzionalità dell’AI e al suo funzionamento automatizzato;
  • le garanzie di affidabilità e accuratezza devono essere rispettate e devono tenere in adeguata considerazione i rischi ex ante (tale scopo può essere conseguito con l’implementazione della privacy by design e della privacy by default);
  • la supervisione umana deve essere sempre prevista, per garantire che potenziali errori siano individuati e rimossi;
  • requisiti specifici possono rendersi necessari per alcune particolari applicazioni di AI, come quelle utilizzate per l’identificazione biometrica a distanza.

Alla luce di quanto sopra, è evidente che l’uso di un sistema di IA nella lotta contro la pandemia comporta che vengano osservati diversi principi e requisiti. Tali principi si richiamano fortemente a quelli della privacy, ma non solo.

L’impatto degli algoritmi unfair sui diritti dei cittadini e il ruolo del GDPR

Una delle principali preoccupazioni nell’utilizzo dell’AI deriva dalla possibile interferenza di algoritmi[1] c.d. unfair che possono comportare discriminazioni e altre conseguenze dannose. Lo European Data Protection Board, in una lettera del gennaio 2020, ha chiarito che qualsiasi trattamento di dati personali rientra nell’ambito del GDPR, che fornisce già le indicazioni su come garantire che i diritti degli interessati non siano compromessi. Tuttavia, sono incoraggiate indicazioni puntuali da parte delle autorità.

WEBINAR - 3 NOVEMBRE
CISO as a Service: perché la tua azienda ha bisogno di un esperto di Cyber Security?
Sicurezza
Cybersecurity

A questo proposito, il Committee of Ministers to member States, l’8 aprile 2020, ha reso disponibile la propria raccomandazione CM/Rec(2020)1 sugli impatti dei sistemi algoritmici sui diritti umani. Lo scopo è quello di assistere gli Stati, nonché gli attori del settore pubblico e privato, nella progettazione, nello sviluppo e nella susseguente elaborazione di sistemi algoritmici al fine di garantire il rispetto dei diritti umani e delle libertà fondamentali. Tra le altre raccomandazioni, vale la pena di evidenziare che, in relazione all’elaborazione delle politiche e della legislazione, sono stati incoraggiati gli Stati membri a consultarsi con tutti i soggetti interessati e le parti in causa, nonché a promuovere la sensibilizzazione dell’opinione pubblica sull’impatto dei sistemi algoritmici.

Alla luce di quanto sopra, prima di utilizzare un sistema algoritmico, si dovrebbe valutare se sia possibile utilizzare approcci alternativi. Questo è particolarmente vero in caso di trattamenti svolti da soggetti pubblici: il Committee of Ministers to member States ha infatti chiarito che “in the delivery of public services and in other high-risk contexts in which States use such technologies, methods such as alternative and parallel modelling should be performed in order to evaluate and algorithmic system and to test its performance and output”.

Come l’AI può essere utilizzata contro la pandemia

L’uso dell’AI sta decisamente aumentando di giorno in giorno, in considerazione della diffusione globale del virus: senza l’apporto della tecnologia, non sarebbe infatti possibile limitarne gli effetti catastrofici.

Sono moltissimi i progetti e le proposte che includono l’uso dell’AI, promossi in ogni parte del mondo. Principalmente, si tratta di soluzioni rivolte a:

  • il monitoraggio dei pazienti e delle persone potenzialmente a rischio. Tale attività richiede l’utilizzo dei dati di localizzazione dei cittadini per valutare se una persona può essere stata esposta al virus e allertarla;
  • l’individuazione dei sintomi e prima cura dei pazienti. Grazie all’invio automatizzato di un questionario ai cittadini e all’utilizzo di un sistema di AI che elabora i dati, il carico di lavoro per il sistema sanitario viene notevolmente ridotto. Tra le soluzioni discusse/implementate, anche l’uso di sistemi interattivi di risposta vocale e di chat-bot per il triage dei pazienti (a questo proposito, come riportato anche dall’Harvard Business Review, l’uso di tali strumenti è in crescita);
  • la diagnosi medica basata sull’immagine (ad es. radiografie del torace), per la previsione dello sviluppo del virus sui pazienti, in base alle loro condizioni;
  • il monitoraggio delle aree pubbliche e dei mezzi di trasporto al fine di individuare eventuali inottemperanza all’ordine pubblico;
  • la eliminazione delle fake news per tramite di sistemi di verifica (ad esempio, Whatsapp ha avviato un progetto pilota chiamato Facta, che ha lo scopo di verificare la veridicità delle notizie);
  • la elaborazione di previsioni sulla diffusione dell’epidemia sia geografica che temporale. Questo obiettivo è probabilmente uno dei più difficili da realizzare in quanto non esiste uno storico della pandemia in corso.

La corsa per perfezionare i sistemi AI è aperta: molte istituzioni e università stavano già studiando soluzioni rivolte agli scopi sopra indicati e ne stanno attualmente accelerando la realizzazione / conversione per adattarli e renderli uno strumento appropriato per combattere la pandemia. D’altra parte, i governi ai diversi livelli (centrale o talvolta regionale) si stanno adoperando per sviluppare applicazioni che includano software di IA (ivi incluso il Governo italiano, come da recentissime notizie). L’elenco dei sistemi è certamente molto lungo e comprende soluzioni che differiscono fortemente l’una dall’altra: ciò è dovuto principalmente alle differenze di interpretazione delle varie culture in merito alla privacy. Per quanto riguarda l’Europa, l’individuo viene posto al centro: la privacy è infatti un diritto fondamentale e, in quanto tale, comprimibile ma non sacrificabile. A tal proposito, l’Autorità Garante per la protezione dei dati personali italiana ha recentemente affermato che anche in tempo di guerra il quadro normativo – primo fra tutti quello riguardante i diritti fondamentali – dovrebbe guidare le scelte del legislatore.

I requisiti da soddisfare per l’autorità garante dell’Ue

Le autorità di protezione dei dati dell’UE stanno fornendo indicazioni dettagliate sui requisiti che i sistemi tecnologici dovranno soddisfare. Inoltre, la Commissione Europea ha recentemente pubblicato la Recommendation on a common Union toolbox for the use of technology and data to combat and exit from the COVID-19 crisis in cui si sottolinea che “il rispetto di tutti i diritti fondamentali, in particolare la privacy, la protezione dei dati, il divieto di sorveglianza e di stigmatizzazione, dovrebbero essere di primaria importanza in tutto il processo”. Lo scopo principale della raccomandazione è quello di garantire un approccio pan-europeo per le applicazioni mobili Covid-19 e di prevenire la diffusione di applicazioni non compatibili con il diritto dell’Unione. In questa direzione, sono molto rilevanti le indicazioni rese dalla Commissione Europea il 16 aprile scorso, nella sua “Guidance on Apps supporting the fight against Covid 19 pandemic in relation to data protection”. La Commissione, infatti, ha fornito numerose indicazioni che si richiede siano prese in considerazione nello sviluppo di app. Tra queste, risultano particolarmente importanti quelle inerenti alla individuazione del titolare – che dovrebbe essere una autorità pubblica in ambito sanitario -, la preferenza per una app che richieda una adesione volontaria, la individuazione della base giuridica quale consenso (in relazione alle disposizioni della Direttiva ePrivacy) e la opportunità di avere un quadro normativo puntuale che stabilisca le modalità di trattamento. Non da ultimo, pare interessante l’appunto della Commissione in relazione alle decisioni automatizzate, secondo cui: “Contact tracing and warning apps provide for the warning of individuals. When this warning is provided directly by the app, the Commission draws attention to the prohibition of subjecting individuals to a decision based solely on automated processing which produces legal effect or similarly significantly affects him or her (Article 22 GDPR)”.

Conclusioni

Stiamo vivendo tempi difficili, che richiedono enormi sacrifici. Tuttavia è anche vero, come dicono in molti, che le crisi aprono (anche) a opportunità. Le rivoluzioni del passato hanno sempre spaventato, ma è importante tenere a mente che accadono, non importa quanto fortemente ci rifiutiamo di vedere che il mondo intorno a noi sta cambiando. L’Unione Europea si sta muovendo. Poiché la tecnologia contribuisce a migliorare la nostra vita, dovremmo abbracciarla, seppur con le dovute limitazioni di utilizzo: come società dobbiamo chiederci se preferiamo essere spaventati o coraggiosi.

 

  1. Si tratta di applicazioni che svolgono uno o più compiti (ad es. raccolta, combinazione, classificazione e inferenza di dati, processo decisionale), con l’obiettivo di migliorare le prestazioni dei servizi, fornire nuove soluzioni, ecc.

 

FacebookTwitterLinkedIn