report gartner

Governance algoritmica e sicurezza: come l’AI sta trasformando governi e imprese



Indirizzo copiato

Secondo Gartner, entro il 2028 l’adozione di agenti di intelligenza artificiale rivoluzionerà decisioni pubbliche e sicurezza digitale. I governi punteranno su modelli decisionali trasparenti, mentre le imprese affronteranno nuovi rischi cyber legati all’AI. Il 75% delle organizzazioni regolamentate rischia sanzioni superiori al 5% del fatturato globale a causa di processi manuali di compliance

Pubblicato il 17 mar 2026



AI governance
Foto: Shutterstock

L’intelligenza artificiale è destinata a ridefinire radicalmente il funzionamento delle amministrazioni pubbliche. Secondo le più recenti previsioni di Gartner, entro il 2028, almeno l’80% dei governi adotterà agenti di AI per automatizzare i processi decisionali di routine, con l’obiettivo di migliorare efficienza e qualità dei servizi.

Questa trasformazione non riguarda soltanto l’automazione, ma implica un cambiamento strutturale nel modo in cui le decisioni vengono concepite e implementate. La crescente pressione sui CIO pubblici evidenzia la necessità di integrare rapidamente l’AI nei processi decisionali, mantenendo al contempo elevati standard di responsabilità.

“I responsabili informatici delle amministrazioni pubbliche sono sottoposti a una pressione crescente affinché integrino l’intelligenza artificiale nei processi decisionali in modo rapido e responsabile”, dichiara Daniel Nieto, senior director analyst di Gartner. “L’ascesa dell’intelligenza artificiale multimodale, insieme ai sistemi conversazionali e agenti, ha ampliato le possibilità delle organizzazioni pubbliche in termini di automazione, comprensione e anticipazione.”


Il problema della frammentazione digitale

Nonostante il potenziale, l’adozione dell’AI nella pubblica amministrazione incontra ostacoli significativi. Tra questi, la frammentazione dei sistemi e delle strategie digitali rappresenta uno dei principali freni.

Un’indagine globale condotta nel 2025 ha evidenziato che il 41% delle organizzazioni pubbliche soffre di strategie isolate, mentre il 31% è ancora vincolato a sistemi legacy. Questi fattori rendono difficile implementare soluzioni digitali coerenti e scalabili.

“La modernizzazione tecnologica da sola non ha risolto questi problemi”, sottolinea Nieto, evidenziando come la semplice innovazione tecnologica non sia sufficiente senza un cambiamento organizzativo più profondo.


Dalla governance dei modelli AI alla governance delle decisioni

Uno dei cambiamenti più rilevanti riguarda l’evoluzione della governance dell’intelligenza artificiale. Tradizionalmente focalizzata su dati, modelli e algoritmi, oggi si sposta verso un approccio centrato sulle decisioni.

La cosiddetta decision intelligence introduce un paradigma in cui ogni decisione viene progettata, monitorata e verificata in modo sistematico. Questo approccio è particolarmente cruciale nel settore pubblico, dove trasparenza ed equità sono elementi fondamentali per la legittimità istituzionale.

“Regolamentando le decisioni, anziché limitarsi a singoli componenti dell’AI, i governi possono trovare un migliore equilibrio tra automazione e giudizio umano, in particolare in contesti ad alto rischio o che incidono sui diritti”, spiega Nieto. “I settori regolamentati e i governi non possono affidarsi a sistemi opachi di tipo ‘scatola nera’ per decisioni di grande rilevanza. La decision intelligence eleva la spiegabilità da requisito tecnico a imperativo di governance”.


Trasparenza e controllo umano: il ruolo di XAI e HITL

La necessità di rendere le decisioni comprensibili porta all’adozione crescente di sistemi di Explainable AI (XAI) e Human-in-the-Loop (HITL). Secondo le previsioni, entro il 2029 il 70% delle agenzie governative richiederà questi meccanismi per tutte le decisioni automatizzate che incidono sui servizi ai cittadini.

Questi strumenti permettono di:

  • rendere verificabile la logica decisionale
  • garantire il controllo umano nei casi più critici
  • preservare la responsabilità istituzionale

In un contesto in cui le decisioni automatizzate possono avere impatti significativi sui diritti dei cittadini, la trasparenza diventa non solo un requisito tecnico, ma un principio democratico.


L’esperienza del cittadino come nuova metrica

Parallelamente, cambia anche il modo di misurare il valore dell’intelligenza artificiale. Non si tratta più soltanto di efficienza, ma di qualità dell’esperienza del cittadino.

Il 50% delle organizzazioni pubbliche considera il miglioramento dell’esperienza utente tra le principali priorità. Questo implica una trasformazione dei servizi pubblici da reattivi a proattivi.

“Quando i cittadini ricevono automaticamente dal governo ciò di cui hanno bisogno, le interazioni dirette potrebbero diminuire, rendendo ancora più fondamentale la fiducia nell’affidabilità, nell’equità e nella trasparenza del sistema”, afferma Nieto.

La Decision Intelligence consente infatti di anticipare i bisogni dei cittadini, offrendo servizi personalizzati e riducendo tempi e inefficienze, rafforzando al contempo la fiducia nelle istituzioni.


L’altra faccia dell’AI: i rischi per la sicurezza informatica

Se da un lato l’AI rappresenta un’opportunità per i governi, dall’altro introduce nuove sfide nel campo della cybersecurity, soprattutto per le imprese.

Secondo Gartner, entro il 2028 il 50% delle attività di risposta agli incidenti sarà legato ad applicazioni basate su intelligenza artificiale, in particolare quelle sviluppate internamente.

“L’intelligenza artificiale si sta evolvendo rapidamente, eppure molti strumenti – in particolare le applicazioni di AI sviluppate su misura – vengono implementati prima di essere stati sottoposti a test completi», dichiara Christopher Mixter, VP analyst di Gartner. “Questi sistemi sono complessi, dinamici e difficili da proteggere nel tempo. La maggior parte dei team di sicurezza non dispone ancora di procedure chiare per la gestione degli incidenti legati all’AI, il che significa che la risoluzione dei problemi può richiedere più tempo e uno sforzo molto maggiore”.


Il ruolo strategico dei leader della sicurezza

Di fronte a questi rischi, Gartner raccomanda un coinvolgimento precoce dei responsabili della sicurezza nei progetti AI. Pianificazione, allocazione delle risorse e definizione dei controlli devono avvenire fin dalle fasi iniziali.

Questo approccio è essenziale per evitare vulnerabilità strutturali difficili da correggere successivamente, soprattutto in sistemi complessi e dinamici come quelli basati su AI.


Piattaforme di sicurezza AI: una nuova priorità

Entro il 2028, oltre il 50% delle aziende utilizzerà piattaforme dedicate alla sicurezza dell’intelligenza artificiale. Questi strumenti permettono di gestire rischi emergenti come:

Centralizzando il controllo e la visibilità, queste piattaforme consentono ai responsabili della sicurezza di applicare politiche coerenti su tutte le applicazioni AI, sia interne che di terze parti.


Il rischio normativo e il costo della non conformità

Un altro tema critico riguarda la conformità normativa. Entro il 2027, il 75% delle organizzazioni regolamentate rischia sanzioni superiori al 5% del fatturato globale a causa di processi manuali di compliance.

La crescente complessità delle normative sull’intelligenza artificiale richiede un approccio sistematico alla gestione del rischio, supportato da tecnologie avanzate di governance.


Il problema del “debito dei dati”

Un ulteriore ostacolo all’adozione sicura dell’AI è rappresentato dal cosiddetto “AI data debt”. Entro il 2030, il 33% del lavoro IT sarà dedicato alla bonifica e messa in sicurezza dei dati.

Molte organizzazioni, infatti, dispongono di dati non strutturati o poco protetti, inadatti all’uso in sistemi di intelligenza artificiale. Questo richiede programmi strutturati di:

  • analisi dei dati
  • controllo degli accessi
  • miglioramento della qualità

Sovranità digitale e tensioni geopolitiche

Le tensioni geopolitiche stanno inoltre spingendo le organizzazioni a ripensare la gestione della sicurezza cloud. Entro il 2027, il 30% delle aziende richiederà piena sovranità sui controlli di sicurezza.

Questo comporta scelte strategiche sui fornitori tecnologici e una maggiore attenzione alle normative locali, in un contesto globale sempre più frammentato.


Identità digitale: il nuovo campo di battaglia

Infine, l’identità digitale emerge come uno dei principali vettori di attacco. Entro il 2028, il 70% dei CISO utilizzerà strumenti avanzati di visibilità e analisi delle identità per ridurre i rischi di compromissione.

La crescente complessità degli ecosistemi digitali, con identità umane e machine-to-machine, rende necessario un approccio integrato e basato sull’AI per la gestione degli accessi.


Conclusioni: fiducia e sicurezza al centro della rivoluzione AI

L’intelligenza artificiale si conferma come uno dei principali motori della trasformazione digitale, tanto nel settore pubblico quanto in quello privato. Tuttavia, il suo successo dipenderà dalla capacità di bilanciare innovazione, trasparenza e sicurezza.

Da un lato, i governi dovranno costruire modelli decisionali affidabili e comprensibili; dall’altro, le imprese dovranno affrontare rischi cyber sempre più sofisticati.

In entrambi i casi, la fiducia – dei cittadini e degli utenti – rappresenta il vero capitale su cui costruire il futuro digitale.



guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x