analisi

AI nel settore sanitario, le linee guida del Garante per la Privacy



Indirizzo copiato

Un decalogo che si fonda su tre principi fondamentali: trasparenza dei processi decisionali, supervisione umana delle decisioni automatizzate e prevenzione della discriminazione algoritmica

Pubblicato il 3 nov 2023

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant//BCI Cyber Resilience Committee Member/CLUSIT Scientific Committee Member/BeDisruptive Training Center Director/ENIA – Comitato Scientifico




L’AI nell’ambito della sanità può portare nuovi e sorprendenti progressi, ma presenta anche alcuni potenziali effetti rischiosi che devono essere presi in considerazione. È su questi rischi che si concentra l’approccio del Garante della Privacy, che ha pubblicato un elenco di linee guida/decalogo sull’uso dell’AI negli ospedali e negli istituti sanitari come di seguito strutturato:

1) Le basi giuridiche del trattamento

2) Accountability, privacy by design e by default

3) La definizione dei ruoli

4) Conoscibilità, non esclusività e non discriminazione algoritmica

5) Valutazione d’impatto sulla protezione dei dati

6) Qualità dei dati

7) Integrità e riservatezza

8) Correttezza e trasparenza

9) La supervisione umana

10) Dignità e identità personale

L’autorità italiana si è impegnata, di fatto, a promuovere tre principi fondamentali dell’IA nella sanità: trasparenza nei processi decisionali, decisioni automatizzate supervisionate dall’uomo e l’eliminazione della discriminazione algoritmica. Grazie a questo impegno, l’Italia si è posizionata tra i primi paesi al mondo a adottare norme specifiche sull’impiego dell’AI nel settore sanitario.

Il decalogo dell’AI nel settore sanitario e le regolamentazioni

Il decalogo dell’AI nel settore sanitario nazionale pone particolare l’attenzione sull’identificazione dei principi fondamentali per garantire la protezione dei dati personali nella realizzazione di servizi sanitari nazionali attraverso l’utilizzo di sistemi di AI. Inoltre, date le caratteristiche dei dati da raccogliere, elaborare e conservare, è fondamentale rispettare regole specifiche che, di fatto, nella maggior parte dei casi, fanno riferimento sia al GDPR sia all’ormai prossimo Artificial Intelligence Act.

Rispettando il quadro normativo del settore, il Garante ha sottolineato l’importanza di condurre una valutazione d’impatto prima di avviare il trattamento dei dati sanitari tramite l’AI a livello nazionale.

Lo scopo di questa valutazione è individuare le misure adeguate a proteggere i diritti e le libertà dei pazienti, assicurando al contempo il rispetto dei principi stabiliti dal Regolamento UE. Infatti, un sistema nazionale centralizzato – che fa uso dell’AI – comporta un trattamento sistematico su larga scala di dati sanitari che rientrano nella categoria dei dati “ad alto rischio”. Pertanto, la valutazione d’impatto è obbligatoria e deve essere condotta a livello centrale per consentire una visione complessiva della situazione.

Nella descrizione dei trattamenti, è inoltre necessario fornire informazioni sulle logiche algoritmiche utilizzate per “generare” i dati e i servizi, sulle metriche utilizzate per addestrare il modello, sui controlli effettuati per individuare eventuali bias e sulla possibilità di correggerli.

Le valutazioni effettuate devono considerare i rischi associati alla creazione di banche dati contenenti informazioni sanitarie, quali la possibile perdita dei requisiti di qualità dei dati, come, ad esempio, l’assenza o l’aggiornamento errato delle informazioni che costituiscono un aspetto particolarmente importante nel contesto della costituzione di basi di dati utilizzate per addestrare o erogare servizi basati sull’AI.

Inoltre, dati di scarsa qualità o compromessi a causa di misure tecniche e organizzative inadeguate potrebbero influenzare l’efficacia e la correttezza dei servizi erogati. Pertanto, è essenziale adottare misure che garantiscono una protezione adeguata delle informazioni nel contesto dell’applicazione dell’IA nei servizi sanitari, considerando le specifiche caratteristiche dei dati personali utilizzati e i modelli di analisi impiegati.

Ai settore sanitario

AI nel settore sanitario nazionale: cambi di paradigma

Vi è la necessità di un approccio strutturato alla valutazione e gestione del rischio che affronti specificamente le sfide tecniche, cliniche ed etiche dell’AI nell’assistenza sanitaria. Si tratta di fatto di attuare cambi di paradigma, ovvero:

Estendere i quadri normativi e i codici di pratica dell’AI per affrontare i rischi e i requisiti specifici dell’assistenza sanitaria

La valutazione del rischio multidimensionale dovrebbe essere parte integrante del processo di sviluppo e certificazione dell’IA medica. Inoltre, la valutazione del rischio deve essere specifica del settore, poiché i rischi clinici ed etici differiscono nei diversi settori medici (ad esempio, radiologia o pediatria).

Ne consegue che, nel futuro quadro normativo, la validazione delle tecnologie sanitarie di IA dovrebbe essere armonizzata e rafforzata per valutare e identificare rischi e limitazioni multidimensionali mediante la valutazione non solo dell’accuratezza e della robustezza del modello, ma anche dell’equità algoritmica, della sicurezza clinica, dell’accettazione clinica, della trasparenza e della tracciabilità, come ribadito anche nel decalogo del Garante.

Definire meglio la gestione dei dati che alimentano l’AI

Nel contesto della creazione di banche dati contenenti informazioni sanitarie, è fondamentale valutare i rischi legati alla perdita dei requisiti di qualità dei dati, come l’aggiornamento mancante o errato. Questo aspetto riveste particolare importanza nella costituzione di basi di dati utilizzate per addestrare o erogare servizi basati sull’AI.

Dati di scarsa qualità o compromessi a causa di misure tecniche e organizzative inadeguate possono influire sull’efficacia e la correttezza dei servizi offerti. Pertanto, nell’applicazione AI ai servizi sanitari, è essenziale adottare misure che garantiscono una protezione adeguata delle informazioni. La valutazione delle misure più appropriate deve tener conto delle specifiche caratteristiche dei dati personali utilizzati e dei modelli di analisi impiegati.

Un altro elemento fondamentale – come anche sottolineato nel decalogo del Garante – riguarda la corretta definizione dei ruoli delle parti coinvolte nel trattamento dei dati, in modo che siano in linea con le attività effettivamente svolte in base ai compiti assegnati.

Spesso, i dati utilizzati nei sistemi di AI vengono trattati e archiviati in risorse gestite da fornitori cloud. Di conseguenza, è importante che le strutture sanitarie verifichino la conformità del fornitore alla normativa sulla protezione dei dati e alle migliori pratiche di sicurezza informatica, definiscano correttamente il suo ruolo e adottino strumenti, anche di natura legale, per garantire una supervisione efficace delle sue attività e una protezione adeguata del titolare delle informazioni.

Promuovere il coinvolgimento di più attori e la co-creazione lungo l’intero ciclo di vita degli algoritmi di AI nel settore sanitario

Per la futura accettazione e implementazione degli strumenti di AI nel settore sanitario, molti attori oltre agli sviluppatori di AI – i.e. medici, pazienti, scienziati sociali, manager sanitari e regolatori di AI – svolgeranno un ruolo fondamentale. Ovvero, saranno necessari nuovi approcci per promuovere un coinvolgimento inclusivo e multilaterale nell’AI nel settore sanitario e garantire che gli strumenti di AI siano progettati, convalidati e implementati in pieno allineamento con la diversità delle esigenze e dei contesti del mondo reale.

Inoltre, in futuro, gli algoritmi di AI dovrebbero essere sviluppati dai produttori sulla base della co-creazione, ovvero attraverso una collaborazione forte e continua tra sviluppatori, utenti finali clinici e altri esperti rilevanti come esperti di etica biomedicale. Di fatto, si tratta di integrare approcci umani e centrati sull’utente lungo l’intero processo di sviluppo dell’AI per garantire la progettazione di algoritmi che riflettano meglio le esigenze e le culture degli operatori sanitari, consentendo anche di identificare e affrontare potenziali rischi in una fase precoce.

Introdurre programmi educativi e campagne per potenziare le competenze degli operatori sanitari e l’alfabetizzazione del pubblico generale nell’ambito dell’AI sanitaria

I futuri professionisti del settore sanitario, per aumentare l’adozione e ridurre gli errori, dovrebbero ricevere una formazione adeguata sull’AI sanitaria in termini di miglioramento della qualità delle cure e dell’accesso ai servizi sanitari, nonché le sue limitazioni e rischi. È quindi necessario aggiornare i programmi educativi nel campo del settore sanitario e aumentarne l’interdisciplinarietà.

Inoltre, vi è un urgente bisogno di aumentare l’alfabetizzazione sull’AI del pubblico, in modo che cittadini e pazienti possano acquisire maggiore consapevolezza e trarre vantaggio dai benefici degli strumenti emergenti di AI sanitaria. Ancora, un’incrementata alfabetizzazione contribuirà anche a ridurre il potenziale rischio di abuso degli strumenti di AI.

Promuovere a livello europeo un “passaporto” per l’AI

La necessità di migliorare la trasparenza degli algoritmi lungo tutto il loro ciclo di vita può essere risolta, secondo gli esperti e vari stakeholder – con la definizione un “passaporto” per l’AI, in grado di fornire la descrizione e la tracciabilità standardizzate degli strumenti di AI sanitaria.

Tale passaporto dovrebbe descrivere e monitorare informazioni chiave sulla tecnologia di AI, coprendo almeno cinque categorie di informazioni: informazioni relative al modello; informazioni relative ai dati; informazioni relative alla valutazione; informazioni relative all’uso; informazioni relative alla manutenzione.

Sarebbe auspicabile avere un passaporto per l’AI standardizzato per consentire una tracciabilità coerente tra i paesi dell’UE e le varie organizzazioni sanitarie. Inoltre, il concetto di tracciabilità deve andare oltre la semplice documentazione del processo di sviluppo o della fase di test del modello di AI, ovvero, dovrebbe anche comprendere il processo di monitoraggio e mantenimento del modello o sistema di AI nel mondo reale, tracciando continuamente il suo funzionamento dopo l’implementazione e identificando eventuali errori o cambiamenti nelle prestazioni.

Pertanto, è importante che gli algoritmi siano sviluppati insieme a interfacce in tempo reale destinate alla sorveglianza e all’audit continui degli strumenti di AI dopo la loro implementazione.

AI settore sanitario

Implementare una strategia per ridurre la disparità europea nell’AI sanitaria

Nonostante l’UE abbia effettuato investimenti significativi nell’AI negli ultimi anni, persistono disuguaglianze tra i diversi paesi europei. La divisione nell’AI può essere spiegata sia dalle differenze strutturali nei programmi di ricerca e nelle capacità tecnologiche sia dai livelli variabili di investimento da parte dei settori pubblico e privato.

Le disparità nello sviluppo e nell’implementazione dell’AI tra i paesi dell’UE sono particolarmente evidenti nell’AI sanitaria. Pertanto, spetterà all’UE agire come un “direttore d’orchestra” per coordinare una strategia a livello europeo atta a ridurre le lacune dell’IA sanitaria tra i Paesi europei. Ovvero, azioni concrete per potenziare le capacità tecnologiche, di ricerca e industriali dei paesi emergenti dell’UE nel campo dell’AI per la sanità.

Gli Stati membri dell’UE, in particolare quelli dell’Europa orientale, potrebbero sviluppare programmi specifici per sostenere ulteriormente l’AI futura nella sanità. Ci si auspica che la Commissione europea possa implementare programmi specifici di coordinamento e supporto delle attività implementate in questo settore dai diversi Stati membri, sostenendo così l’attuazione di linee guida e approcci comuni, considerando come riferimento il decalogo del nostro Garante.

Conclusioni

Il Garante Privacy con il decalogo ha voluto sottolineare ulteriormente l’importanza di fornire informazioni chiare sul funzionamento degli algoritmi, sulle metriche utilizzate per l’addestramento e sui controlli per identificare e correggere eventuali bias in modo tale da garantire un uso etico e sicuro dell’AI nei servizi sanitari nazionali, riducendo al minimo le possibili discriminazioni e proteggendo i diritti e le libertà delle persone coinvolte.

È doveroso ricordare che l’AI si basa sull’elaborazione di dati comparabili e accessibili. Pertanto, è fondamentale disporre di basi dati solide per lo sviluppo di programmi di AI in grado di migliorare la nostra conoscenza e la nostra capacità di gestire il settore sanitario. Questo solleva un tema cruciale: la validazione e la certificazione dei dati e una necessaria una regolamentazione che garantisca la sicurezza dell’utente finale.

Oggi più che mai è quanto mai fondamentale cogliere la sfida etica posta dall’AI, che corrisponde al tentativo di mantenere l’uomo in the loop e che ha inizio fin dalla raccolta dei dati. Si tratta, come sostiene il professore francescano Paolo Benanti, di garantire l’algoretica, cioè lo studio di modalità di sviluppo etico delle intelligenze artificiali in modo da mantenere l’uomo al centro dei processi decisionali, come possibile antidoto all’algocrazia.

Ne consegue che la sfida dei prossimi anni sarà quella di mantenere un approccio etico e di dialogo con il paziente e il cittadino, senza però trascurare l’evoluzione tecnologica.

Articoli correlati

Articolo 1 di 4