L’AI entra ufficialmente nella sanità italiana con la presentazione del documento di Linee di indirizzo per l’adozione dell’Intelligenza Artificiale nella relazione tra professionista sanitario e paziente, che si è tenuta l’11 dicembre 2025 alla Camera dei deputati. L’iniziativa è promossa da Anitec-Assinform, l’associazione confindustriale delle imprese ICT, insieme al Tavolo multidisciplinare che riunisce istituzioni, clinici, imprese, esperti e stakeholder del settore sanitario.
L’obiettivo è guidare l’integrazione dell’AI nella cura con principi di sicurezza, trasparenza e centralità della persona.
Indice degli argomenti:
Un passo avanti nella digitalizzazione del SSN
Le Linee di indirizzo arrivano in una fase avanzata del percorso avviato con la Missione 6 Salute del PNRR, che ha accelerato la trasformazione digitale del Servizio Sanitario Nazionale. Progetti come il Fascicolo Sanitario Elettronico 2.0, l’Ecosistema Dati Sanitari, la Piattaforma nazionale di telemedicina e la Piattaforma di IA per l’assistenza primaria hanno segnato progressi significativi su tutto il territorio.
Secondo il rapporto Il Digitale in Italia 2025 di Anitec-Assinform, la sanità digitale ha raggiunto un mercato pubblico di 2,5 miliardi nel 2024, ma solo 62,3 milioni sono stati destinati a soluzioni basate su intelligenza artificiale. Le nuove Linee vogliono colmare questo divario favorendo un’adozione più estesa e consapevole.
Il contributo del documento: competenze, sicurezza e trasparenza
Sottoscritto da alcune delle maggiori associazioni e società scientifiche – FIMP, FNOPI, SID, SIIAM, SIMIG, SNAMI, insieme a Confcooperative Sanità e Cittadinanzattiva – il documento propone azioni concrete per facilitare l’uso sicuro dell’AI da parte dei professionisti sanitari.
Le indicazioni sottolineano il potenziale dell’intelligenza artificiale come alleato del clinico: può ridurre il carico amministrativo, migliorare la gestione delle informazioni e supportare la compilazione del patient summary, contribuendo al processo decisionale “senza mai sostituire il giudizio clinico”. Centrale anche la necessità di strumenti spiegabili e trasparenti, affinché pazienti e operatori comprendano le logiche delle raccomandazioni automatiche.
Interoperabilità, qualità dei dati e formazione continua
Le priorità evidenziate includono
- interoperabilità dei sistemi,
- qualità dei dati,
- riduzione della frammentazione digitale,
- percorsi di valutazione delle tecnologie,
- tutela della privacy
- governance partecipata.
La formazione continua dei professionisti emerge come condizione imprescindibile, così come l’attenzione all’equità territoriale: l’AI può contribuire a ridurre le disuguaglianze ampliando l’accesso ai servizi anche nelle aree interne.
Il Decalogo dell’innovazione responsabile
Accanto alle Linee, è stato presentato il Decalogo per l’adozione dell’IA nella relazione tra professionista e paziente. I dieci principi sintetizzano la visione del gruppo di lavoro: centralità della relazione terapeutica, trasparenza, sicurezza, ruolo del professionista come decisore ultimo, interoperabilità, co-progettazione multi-stakeholder, tutela della privacy e valutazione d’impatto.


La visione di Anitec-Assinform

Massimo Dal Checco, presidente di Anitec-Assinform, ha sottolineato: “L’esperienza ci insegna che la tecnologia realizza a pieno il suo potenziale quando è compresa, accettata e utilizzata in modo consapevole dai suoi utenti. Per questo le linee di indirizzo che presentiamo oggi nascono da un dialogo continuo tra imprese, istituzioni e terze parti rappresentative di medici, professionisti sanitari e pazienti. L’IA può sostenere l’evoluzione del Servizio Sanitario Nazionale, ma solo se inserita in processi chiari, affidabili e realmente orientati ai bisogni delle persone e delle strutture.”
Verso una sanità più moderna e collaborativa
Le Linee di indirizzo e il Decalogo rappresentano un contributo strategico al percorso di trasformazione del SSN. Offrono una guida operativa a istituzioni, strutture sanitarie, professionisti e imprese in una fase chiave per la digitalizzazione del Paese, promuovendo una sanità più moderna, interoperabile e fondata sulla relazione tra professionista e paziente.
Le Linee di indirizzo
L’Intelligenza Artificiale alleata nella cura: linee guida per una sanità italiana consapevole e centrata sul paziente
La sanità italiana si trova oggi di fronte a un’importante sfida di trasformazione digitale, con l’intelligenza artificiale che si afferma come il principale strumento di innovazione. Questo processo, già in atto, ha subito una netta accelerazione a partire dal 2020, rendendo la digitalizzazione una necessità strategica e non più una semplice opzione. La sanità digitale è ora considerata la chiave per un sistema più efficiente, connesso e realmente centrato sul paziente.
L’IA è destinata a incidere profondamente sui processi clinici, organizzativi e relazionali, rappresentando molto più di una semplice tecnologia: è un elemento abilitante. Si stima che, a livello globale, il mercato dell’IA applicata alla sanità supererà i 28 miliardi di dollari entro il 2025.
In Italia, l’IA è la tecnologia con il tasso di crescita più elevato in ambito sanitario, con un incremento previsto superiore al 35% già nel 2025 rispetto al 2024.
Le applicazioni dell’IA sono molteplici e in rapido sviluppo, migliorando l’efficienza operativa e liberando tempo prezioso per i professionisti sanitari.
L’IA permette diagnosi più rapide e accurate, ad esempio supportando i medici nella diagnostica per immagini per individuare precocemente anomalie difficili da rilevare. L’IA supporta anche la ricerca clinica, il processo decisionale e la personalizzazione delle cure, contribuendo significativamente al miglioramento degli outcome di salute. Un’indagine di McKinsey & Company ha indicato che, dopo la produttività clinica, il secondo ambito in cui l’IA generativa esprime un elevato potenziale è il miglioramento dell’esperienza di cura del paziente, in termini di autonomia, appropriatezza ed efficienza.
Per sfruttare appieno queste opportunità, la preparazione del personale sanitario è fondamentale. Un recente studio congiunto OCSE e WMA ha rilevato che il 72% delle associazioni mediche intervistate ritiene che i benefici dell’IA superino i rischi. Tuttavia, il 70% di esse ha anche sottolineato che il ruolo dei medici rimarrà centrale, evidenziando come l’adozione tecnologica debba affiancarsi al mantenimento della dimensione umana nella cura.
Le Linee di Indirizzo sono frutto di un tavolo di lavoro multidisciplinare promosso da Anitec-Assinform e sottoscritto da importanti enti come FNOPI e Cittadinanzattiva, mirano a supportare i professionisti sanitari in questa adozione consapevole, fornendo al contempo indicazioni per istituzioni e imprese.
L’AI: alleato del clinico, non sostituto della relazione umana
Il principio fondamentale che guida l’integrazione dell’IA è che essa debba fungere da supporto e strumento complementare al lavoro del personale sanitario, senza mai sostituirne il ruolo. L’adozione dell’IA consente di semplificare e automatizzare compiti burocratici e ripetitivi, un aspetto cruciale dato che molti operatori, specialmente infermieri, spendono troppo tempo in attività amministrative. Riducendo questo carico burocratico, si restituisce tempo e valore alla relazione terapeutica, rafforzando l’elemento centrale di ogni percorso di cura.
Un’applicazione promettente è l’uso dell’IA per il triage automatizzato, che può filtrare e classificare intelligentemente le richieste dei cittadini (distinguendo tra amministrative, informative o cliniche), indirizzando correttamente ogni istanza ed evitando sovraccarichi ai medici di medicina generale (MMG) o ai servizi di emergenza. Se la richiesta è sanitaria, l’IA può generare un primo resoconto per il MMG, migliorando la continuità assistenziale e riducendo i tempi di risposta.
L’approccio alla progettazione delle tecnologie IA deve essere antropocentrico: il professionista sanitario deve restare il decisore ultimo e responsabile nel percorso di cura, con l’IA a supporto delle decisioni cliniche, mai in autonomia. Per garantire l’efficacia, le soluzioni IA non devono adottare approcci standardizzati, poiché le esigenze e i flussi informativi variano profondamente tra le diverse specializzazioni, come tra un radiologo e un infermiere. Ogni soluzione dovrebbe essere co-progettata con il contributo degli specialisti di riferimento, valorizzando l’esperienza specialistica e la capacità di giudizio clinico.
Tra gli strumenti più vantaggiosi vi è la generazione automatica del patient summary, il riassunto clinico che raccoglie informazioni essenziali e aggiornate. L’IA può rivoluzionare la creazione di tali riassunti, utilizzando metodi estrattivi (selezionando frasi chiave) o astrattivi (rielaborando le informazioni per maggiore chiarezza).
Uno studio di Stanford ha dimostrato che i riassunti generati dall’IA sono stati spesso preferiti o giudicati equivalenti a quelli umani, talvolta producendo anche meno errori rispetto agli esperti, riducendo le imprecisioni dovute all’elevato carico di lavoro e alla stanchezza.
Per favorire l’adozione consapevole, le istituzioni dovrebbero sostenere incentivi economici per le strutture che implementano tecnologie IA che aumentano l’efficienza e la qualità delle cure. Inoltre, è cruciale istituire tavoli di confronto multidisciplinari per incoraggiare la collaborazione tra clinici, ricercatori e sviluppatori in tutte le fasi, dalla progettazione al monitoraggio dell’impatto.

Ripensare la fiducia: trasparenza algoritmica e responsabilità clinica
L’integrazione dell’IA nel Servizio Sanitario Nazionale richiede un profondo cambiamento nel concetto di fiducia. La fiducia, che un tempo era legata soprattutto all’esperienza del singolo medico, ora si estende all’intero sistema, inclusi gli strumenti tecnologici. Per costruire questa fiducia, la trasparenza algoritmica è fondamentale: pazienti e professionisti devono poter comprendere, anche in termini semplici, le logiche e i dati su cui si basano le decisioni automatizzate.
Gli strumenti di IA devono essere spiegabili e verificabili, e devono essere accompagnati da indicatori pratici di affidabilità, come punteggi di confidenza o avvisi su dati anomali. Questi indicatori aiutano i professionisti a calibrare la propria fiducia, prevenendo sia un eccesso di dipendenza acritica (“automation bias”) sia una sfiducia pregiudiziale.
Cruciale è il mantenimento del principio dell’”human in the loop“: la responsabilità clinica non può essere delegata alla macchina e deve restare saldamente in capo al professionista sanitario. Il medico ha il compito di interpretare, contestualizzare e, se necessario, disattendere le indicazioni dell’algoritmo. In caso di errore algoritmico, è necessario un quadro chiaro e condiviso delle responsabilità, che consideri la catena decisionale supportata dai sistemi automatizzati, per evitare confusione o un carico eccessivo sul singolo operatore.
In coerenza con l’AI Act, che classifica l’uso dell’IA in sanità come ad alto rischio, è fondamentale prevedere procedure di valutazione d’impatto (DPIA) proporzionate al rischio per i progetti con effetti significativi sulla salute, tutelando i pazienti senza ostacolare l’innovazione.
Per le istituzioni, è suggerito promuovere campagne di comunicazione pubblica e sviluppare algoritmi con spiegazioni integrate che rendano facile comprendere le raccomandazioni cliniche.
Combattere i divari: equità territoriale e accessibilità tramite il digitale
L’IA offre una concreta opportunità per ridurre le disuguaglianze territoriali e sociali nell’accesso alle cure, portando assistenza anche in aree interne, RSA e piccoli presidi sanitari. La sfida è evitare una “IA per pochi”, promuovendo strumenti semplici, accessibili e adattabili anche in contesti con infrastrutture limitate. Strumenti come la televisita, la teleassistenza e i sistemi di monitoraggio remoto devono diventare strumenti di inclusione.
L’assistenza territoriale deve essere potenziata, e l’adozione di sistemi intelligenti portatili integrati con la cartella clinica può facilitare le visite domiciliari.
Tablet e smartphone, dotati di riconoscimento immagini o interfacce vocali, possono supportare la raccolta dati e la pianificazione assistenziale, anche in scenari a connettività ridotta (grazie all’uso di IA locali con sincronizzazione differita).
Le tecnologie vocali, ad esempio, possono semplificare la registrazione delle anamnesi e alleggerire i carichi amministrativi del personale sanitario.
Tuttavia, l’autentica transizione digitale non può avvenire senza colmare il divario delle fragilità digitali, che colpiscono sia i cittadini che il personale sanitario. È necessario investire sulla formazione mirata, sull’accesso a dispositivi adeguati e sul supporto operativo continuo. Per garantire l’equità, le politiche pubbliche dovrebbero investire nell’ampliamento delle infrastrutture digitali, assicurando accesso universale a reti internet affidabili e veloci, specialmente nelle aree rurali, e promuovendo un design inclusivo e centrato sull’utente per le soluzioni IA.
Un esempio di inclusione del cittadino si è avuto attraverso la collaborazione con il Terzo Settore (come nel caso di una televisita cardiologica in sinergia con la Croce Rossa Italiana nel ferrarese), che ha visto i volontari come facilitatori per superare le difficoltà nell’uso degli strumenti digitali.
L’interoperabilità come pilastro fondamentale della sanità connessa
La frammentazione dei sistemi sanitari regionali e la scarsa interoperabilità tra banche dati e istituzioni rappresentano uno degli ostacoli principali all’efficacia delle soluzioni IA in sanità. In Italia, l’interoperabilità semantica, che riguarda la capacità dei sistemi di attribuire un significato uniforme ai dati scambiati, è l’anello più debole della catena. Questa carenza costringe i medici a inserire dati manualmente, mantenendo un quadro nazionale frammentato e limitando l’efficacia dell’IA.
La scarsa interoperabilità comporta inefficienze, duplicazioni e potenziali rischi clinici dovuti alla mancanza di una visione integrata del paziente. Per superare questo problema, è necessario adottare una strategia nazionale basata su standard aperti (es. HL7 FHIR), soluzioni “interoperabili by design” e una governance efficace del dato.
Il Fascicolo Sanitario Elettronico 2.0 (FSE 2.0) e l’Ecosistema dei Dati Sanitari (EDS) rappresentano grandi opportunità per l’integrazione con i sistemi IA, creando un’architettura unificata e interoperabile.
L’integrazione di moduli di intelligenza artificiale nelle cartelle cliniche Informatizzate (CCI) basate su linguaggi standardizzati può abilitare funzionalità avanzate, come la pianificazione automatica degli interventi e la proposta di diagnosi coerenti.
I Large Language Model (LLM) e i moduli di Natural Language Processing (NLP) offrono nuove possibilità per trasformare le note scritte in linguaggio naturale in dati codificati e interoperabili, alimentando il FSE e i sistemi di monitoraggio della performance.
L’interoperabilità, oltre a essere una questione tecnologica, è un cambio di paradigma organizzativo che richiede collaborazione tra aziende, istituzioni e operatori. Essa è fondamentale per la gestione delle cure croniche (permettendo la condivisione immediata dei risultati di esami tra MMG e specialisti) e per l’empowerment del paziente, che può consultare le proprie informazioni sanitarie in modo diretto, diventando parte attiva nella gestione del proprio benessere.
Le istituzioni dovrebbero incentivare l’adozione di soluzioni interoperabili tramite crediti d’imposta e finanziamenti specifici per aggiornare i sistemi legacy, utilizzando API e gateway, e promuovendo l’uso di standard aperti.
Educazione e competenze: formare pazienti, clinici e sviluppatori
La trasformazione digitale non può avere successo senza un accompagnamento culturale di tutti i protagonisti: pazienti, professionisti sanitari e sviluppatori.
- I clinici: devono essere formati all’utilizzo consapevole e antropocentrico dell’IA. Le resistenze all’adozione non sono ideologiche, ma derivano spesso da paure concrete legate a mancanza di formazione e stress. I professionisti sanitari devono acquisire una AI literacy critica che permetta loro di interpretare e, se necessario, mettere in discussione gli output dell’IA per contrastare l’ automation bias. È necessario creare percorsi formativi interdisciplinari, come master universitari, rivolti a laureati in medicina, informatica e ingegneria.
- I cittadini/èazienti: devono comprendere il potenziale e i limiti dell’IA per evitare timori infondati o aspettative eccessive. Devono essere informati chiaramente sull’impiego degli strumenti digitali, ad esempio sul perché i chatbot pongano determinate domande, per aumentare l’accettazione e l’engagement. La promozione della health literacy favorisce il modello di shared decision making.
- Gli sviluppatori/tecnologi: Devono conoscere il contesto sanitario e collaborare attivamente con i medici nella co-progettazione di soluzioni utili e realistiche. La formazione per gli sviluppatori dovrebbe includere aspetti etici, clinici e sociali, garantendo che le soluzioni siano allineate ai bisogni assistenziali.
È cruciale investire in campagne di alfabetizzazione digitale e istituire sportelli di facilitazione digitale sanitaria nelle Case della Comunità, dove operatori formati supportino cittadini e caregiver nell’uso di strumenti come il FSE e le app. I professionisti sanitari dovrebbero, infine, prevedere quote di formazione continua (ECM) che vincolino l’accreditamento alla formazione specifica in materia di salute digitale.
Appropriatezza e HTA: la valutazione d’impatto per investimenti mirati
L’introduzione dell’IA deve essere guidata da criteri rigorosi di appropriatezza clinica e da valutazioni d’impatto, applicate all’uso dell’IA a supporto della valutazione clinica. L’impiego dell’IA in sanità dovrebbe basarsi su modelli strutturati di Health Technology Assessment (HTA), con procedure di validazione scientifica e analisi di impatto proporzionate al livello di rischio.
È cruciale definire in modo trasparente se le soluzioni IA rientrino o meno nei Livelli Essenziali di Assistenza (LEA), poiché l’esclusione dai LEA potrebbe creare disparità di accesso, compromettendo l’equità.
La valutazione d’impatto deve includere aspetti clinici, economici, organizzativi, sociali e formativi. Tale monitoraggio dovrebbe prevedere una fase preliminare (ex ante) e un monitoraggio continuo (ex post) per correggere tempestivamente eventuali effetti inefficaci o distorsivi. L’appropriatezza d’uso è fondamentale per guidare gli investimenti e ridurre gli sprechi di risorse pubbliche, evitando di adottare soluzioni non testate o sperimentali. Non tutte le soluzioni IA sono efficaci in ogni contesto; un algoritmo performante in un grande pronto soccorso potrebbe non esserlo in strutture più piccole.
Per valorizzare il patrimonio di dati clinici storici, oggi sottoutilizzati, questi dati devono essere anonimizzati e messi a sistema per perseguire un interesse pubblico più ampio e supportare lo sviluppo responsabile dell’IA. È suggerita la creazione di sandbox per la sperimentazione in ambienti controllati e sicuri di nuove soluzioni IA, per valutarne impatto e sicurezza prima dell’adozione definitiva. È inoltre necessario definire un framework nazionale per classificare e integrare le applicazioni IA nei LEA.

Privacy, consenso e sicurezza: i fondamenti della fiducia digitale
La fiducia tra paziente e sistema sanitario si basa sulla protezione dei dati, e il consenso espresso dal paziente deve essere esplicito, trasparente e supportato da processi chiari. I sistemi IA devono essere progettati secondo i principi di privacy by design, integrando misure di sicurezza robuste e promuovendo l’utilizzo di dati anonimizzati o pseudonimizzati. È cruciale definire con trasparenza chi è il responsabile del trattamento dei dati quando si utilizzano strumenti di IA.
In Italia, permangono criticità riguardo al consenso: solo il 42% degli italiani ha espresso il consenso all’utilizzo del Fascicolo Sanitario Elettronico (FSE), sebbene il 98% dei medici di base lo consulti regolarmente. Per massimizzare il potenziale dell’IA, che necessita di dati accessibili, è essenziale investire in trasparenza e semplificazione delle procedure per rendere l’adesione dei cittadini più consapevole e diffusa.
A livello normativo, una recente riforma dell’articolo 110 del Codice Privacy ha stabilito che il trattamento dei dati sanitari per fini di ricerca scientifica può avvenire anche senza il consenso dell’interessato, a condizione che siano adottate adeguate misure di salvaguardia (come la DPIA e il parere favorevole del comitato etico). Questo bilancia la necessità di accesso ai dati per l’innovazione con la tutela della privacy.
Le istituzioni dovrebbero armonizzare a livello nazionale le modalità di raccolta e gestione del consenso, introducendo formati digitali standardizzati (machine-readable) e creando un registro nazionale dei dataset clinici storici utilizzabili a fini di ricerca. Le imprese, dal canto loro, devono integrare il principio di privacy by design e offrire strumenti per gestire in modo dinamico il consenso (opt-in/opt-out), semplificando il processo per i pazienti.
Infrastrutture e governance: superare il “Digital Divide” e l’”AI Divide”
La diffusione dell’IA è indissolubilmente legata alla disponibilità di infrastrutture tecnologiche adeguate: banda larga, piattaforme sicure, ambienti cloud affidabili e dispositivi aggiornati. È auspicabile la realizzazione di data platform nazionali o regionali interoperabili, capaci di raccogliere e gestire grandi volumi di dati sanitari in modo sicuro e nativo per l’IA.
È fondamentale affrontare il rischio di “AI divide”, ovvero che l’accesso alle soluzioni IA avanzate sia limitato a poche categorie di cittadini o aree geografiche, aumentando così le disuguaglianze. Le politiche pubbliche devono investire in modo mirato per estendere la banda larga e promuovere l’aggiornamento dell’hardware obsoleto nelle strutture sanitarie pubbliche.
Parallelamente, l’integrazione efficace dell’IA richiede un modello di governance condiviso, inclusivo e trasparente, coinvolgendo attivamente clinici, pazienti, tecnologi e istituzioni fin dalla fase di progettazione. Serve un coordinamento nazionale stabile e tavoli di confronto e monitoraggio sull’IA, per intercettare i bisogni reali e garantire l’allineamento delle soluzioni. La governance deve essere multidisciplinare, coinvolgendo figure come quelle delle professioni infermieristiche per la validazione semantica e operativa dei moduli di supporto decisionale.
Si suggerisce l’istituzione di Advisory board multistakeholder e la promozione di strumenti strutturati di consultazione pubblica, rendendo obbligatorio il coinvolgimento degli utenti finali nei bandi pubblici per l’adozione di soluzioni IA.
Le sfide degli LLM: navigare la “zona grigia” normativa
L’integrazione dei Large Language Models (LLM) e dei Modelli Multimodali di Grandi Dimensioni (LMM) in sanità, sebbene promettente, introduce nuove sfide etiche e normative, creando una “zona grigia”. I rischi includono l’inaccuratezza degli output, la presenza di bias e un potenziale eccessivo affidamento sulla tecnologia.
Attualmente, il Regolamento sui Dispositivi Medici (MDR) e l’AI Act non coprono adeguatamente i casi in cui gli LLM vengono utilizzati impropriamente o malfunzionano per scopi medici senza la necessaria supervisione, sollevando problemi di responsabilità. Per mitigare questi rischi, si raccomanda l’implementazione di misure tecniche, come filtri e tecniche di prompt engineering, per prevenire usi clinici impropri. Per le applicazioni LLM non classificate come dispositivo medico, i produttori dovrebbero ispirarsi ad alcuni principi del MDR per garantire un sistema di governance solido e un’analisi dei rischi completa, che includa l’uso improprio e i malfunzionamenti.
La supervisione umana rimane imprescindibile: l’IA deve supportare e non sostituire il giudizio clinico. Le strutture sanitarie devono definire policy chiare sull’utilizzo dell’IA, prevedendo audit periodici e la creazione di canali di segnalazione per bias o malfunzionamenti.
Un’analisi di 519 studi sull’uso degli LLM in sanità ha rivelato una disomogeneità nella valutazione: solo il 5% degli studi ha utilizzato dati reali provenienti dall’assistenza ai pazienti, concentrandosi principalmente su compiti “intellettuali” (diagnosi) piuttosto che su compiti pratici e amministrativi (scrivere prescrizioni o referti). Inoltre, quasi nessuno studio valuta l’equità, la capacità di riconoscere l’incertezza o i costi reali di utilizzo degli LLM. È quindi cruciale adottare un approccio più rigoroso, basato sull’uso sistematico di dati reali e sulla valutazione economica, per comprendere dove l’IA può fare la differenza.

Best practice e case study: l’esperienza sul campo
Per orientare gli investimenti, è fondamentale condividere esperienze dirette e buone pratiche.
Stress lavorativo e digitalizzazione: uno studio condotto sul personale del Gruppo San Donato ha evidenziato alti livelli di burnout e come la digitalizzazione, se non supportata, possa aumentare lo stress. Molti operatori trascorrono troppo tempo in attività burocratiche. Nonostante la maggior parte del personale riconosca la rilevanza della transizione digitale, il 18% non si sente preparato, in particolare donne e personale amministrativo. Per migliorare la situazione, è fondamentale potenziare il supporto amministrativo per liberare tempo alla cura, investire nella formazione digitale mirata e comunicare chiaramente i benefici della digitalizzazione.
Telemedicina nella pediatria territoriale: uno studio sperimentale dell’ASL Città di Torino (2023-2024) sull’integrazione di strumenti digitali nella pratica dei pediatri di libera scelta (PLS) ha incontrato criticità come il digital divide, la barriera linguistica e la diffidenza delle famiglie, che hanno limitato l’arruolamento dei pazienti. Nonostante un tasso di abbandono significativo tra i pediatri arruolati, l’esperienza è stata valutata positivamente. Per rendere il servizio scalabile, è necessario identificare un pediatra facilitatore per ogni équipe, predisporre una documentazione uniforme e definire un modello di sostenibilità economica (ad esempio tramite rimborsi o il coinvolgimento del Terzo Settore). L’obiettivo è anche produrre evidenze cliniche per validare l’efficacia e l’interoperabilità dei sistemi.
Conclusione
La transizione verso la sanità digitale e l’integrazione dell’IA non sono solo una questione tecnologica, ma una sfida culturale e organizzativa. È cruciale adottare un modello di Connected Care, dove figure come l’infermiere di famiglia e di comunità agiscano da mediatori tra la tecnologia e la persona, salvaguardando la centralità umana nella sanità. Le azioni chiave per l’efficacia includono investimenti nella formazione continua, il design di servizi user-friendly e una strategia chiara di gestione del cambiamento.







