Nel giro di pochi anni, la corsa all’intelligenza artificiale generativa entrerà in una nuova fase. Non sarà più sufficiente sviluppare modelli potenti: servirà renderli comprensibili, verificabili e affidabili. È questo il punto chiave dell’ultima analisi pubblicata da Gartner, secondo cui entro il 2028 l’importanza crescente dell’Explainable AI (XAI) porterà gli investimenti in osservabilità dei large language model (LLM) a rappresentare il 50% delle implementazioni GenAI, rispetto al 15% attuale.
Si tratta di una trasformazione strutturale. Finora, gran parte dell’attenzione si è concentrata sulle capacità generative dei modelli: scrivere testi, produrre codice, sintetizzare informazioni. Ma con la diffusione su larga scala nelle aziende, emerge un problema più profondo: fidarsi davvero di ciò che l’AI produce.
Indice degli argomenti:
Cos’è l’Explainable AI e perché conta
Gartner definisce l’Explainable AI come un insieme di capacità che permettono di descrivere un modello, evidenziarne punti di forza e debolezza, prevederne il comportamento e individuare eventuali bias.
In altre parole, è ciò che rende l’AI leggibile agli esseri umani.
Non si tratta solo di trasparenza tecnica, ma di un requisito operativo. L’XAI consente di chiarire il funzionamento di un modello per un pubblico specifico, garantendo accuratezza, equità, responsabilità, stabilità e trasparenza nei processi decisionali algoritmici.
In un contesto aziendale, questo significa poter spiegare perché un sistema ha generato una determinata risposta, quali dati ha utilizzato e quali limiti presenta. Senza questa capacità, l’AI resta una “scatola nera”, difficile da integrare in processi critici.
Osservabilità dei modelli: oltre le metriche tradizionali
Parallelamente all’XAI, cresce l’importanza dell’osservabilità dei modelli linguistici. Le soluzioni di LLM observability non si limitano a monitorare parametri IT tradizionali come tempi di risposta o disponibilità del servizio. Vanno oltre.
Analizzano metriche specifiche dell’AI generativa: allucinazioni, bias, utilizzo dei token, qualità dell’output. Forniscono insight operativi che permettono di capire non solo se il sistema funziona, ma se produce risultati affidabili.
Questi strumenti sono utilizzati dai team che sviluppano e mettono in produzione sistemi AI, ma sempre più spesso anche dai reparti IT e dagli SRE (Site Reliability Engineers), responsabili della resilienza e delle prestazioni in ambienti reali.
La fiducia cresce più lentamente della tecnologia
Il nodo centrale è la fiducia. E secondo gli analisti, è proprio qui che si gioca il futuro della GenAI.
“Man mano che le organizzazioni scalano la GenAI, il requisito di fiducia cresce più velocemente della tecnologia stessa”, dichiara Pankaj Prasad, senior principal analyst di Gartner. “L’XAI fornisce visibilità sul perché un modello ha risposto in un certo modo, mentre l’osservabilità degli LLM valida come quella risposta è stata generata e se può essere considerata affidabile.”
Il messaggio è che potenza e scala non bastano. Senza strumenti per comprendere e verificare i modelli, l’adozione rischia di fermarsi.
Il rischio di un’AI confinata a compiti marginali
L’assenza di solide basi di explainability e osservabilità ha conseguenze concrete.
“Senza robuste fondamenta di XAI e osservabilità, le iniziative GenAI saranno limitate a compiti a basso rischio, interni o non critici, dove la verifica dell’output è facilmente gestibile o poco rilevante, limitando gravemente il potenziale ritorno sull’investimento”, aggiunge Prasad.
In altre parole, senza fiducia non c’è scala. E senza scala, non c’è vero impatto economico.
Le aziende potrebbero ritrovarsi a utilizzare l’AI solo per attività accessorie – come la generazione di bozze o l’automazione di task secondari – senza mai integrarla nei processi decisionali core.
Un mercato in forte crescita
Il contesto economico rafforza questa urgenza. Gartner prevede che il mercato globale dei modelli GenAI supererà i 25 miliardi di dollari nel 2026 e raggiungerà i 75 miliardi entro il 2029.
Una crescita trainata dall’adozione trasversale nei diversi settori: finanza, sanità, manifattura, retail, pubblica amministrazione.
Ma con l’aumento dell’uso cresce anche la necessità di meccanismi di verifica. I modelli generativi possono produrre contenuti plausibili ma errati, distorti o influenzati da bias. Senza strumenti adeguati, questi rischi diventano sistemici.
Dalle performance alla qualità: il cambio di paradigma
Un altro passaggio chiave riguarda le metriche di valutazione. Finora, l’osservabilità si è concentrata su velocità e costi. Ma questo approccio non è più sufficiente.
“L’osservabilità tradizionale è focalizzata su velocità e costo, ma la priorità si sta spostando verso misure di qualità più profonde come accuratezza fattuale, correttezza logica e sycophancy”, ha spiegato Prasad.
Questo cambiamento implica l’introduzione di nuovi indicatori e metodi di valutazione, più orientati alla governance che alla pura performance tecnica.
Tra questi, emerge il concetto di human-in-the-loop: la validazione umana dei contenuti generati, in particolare per verificare coerenza narrativa e accuratezza delle fonti.
Explainability e osservabilità: due facce della stessa medaglia
Explainable AI e LLM observability non sono alternative, ma complementari.
“L’explainability trasforma un output GenAI in un insight difendibile e verificabile. L’osservabilità degli LLM assicura che il modello si comporti come previsto nel tempo. Senza entrambe, la GenAI non può maturare oltre ambienti di laboratorio controllati”, sottolinea Prasad.
Insieme, costituiscono un’infrastruttura di fiducia. Una base necessaria per portare l’AI fuori dai prototipi e dentro i processi aziendali critici.

Le quattro priorità strategiche per le aziende
Per migliorare affidabilità, trasparenza e valore di business delle applicazioni GenAI, Gartner individua quattro azioni chiave.
1. Tracciabilità XAI nei casi ad alto impatto
Le organizzazioni dovrebbero rendere obbligatoria la tracciabilità XAI per tutti i casi d’uso GenAI ad alto impatto. Questo significa documentare i passaggi logici del modello e le fonti dei dati utilizzati per ogni output.
Una misura fondamentale per garantire auditabilità e responsabilità.
2. Osservabilità multidimensionale degli LLM
Le piattaforme di osservabilità devono monitorare molteplici dimensioni: latenza, deriva del modello, utilizzo dei token, costi, tassi di errore e qualità dell’output.
Solo una visione completa consente di mantenere prestazioni affidabili nel tempo.
3. Valutazione continua nei pipeline CI/CD
Le metriche di valutazione degli LLM – come benchmark di accuratezza fattuale e controlli di sicurezza – devono essere integrate nei processi di integrazione e distribuzione continua.
In questo modo, ogni aggiornamento del modello viene validato prima della messa in produzione.
4. Formazione degli stakeholder
Infine, è essenziale educare stakeholder chiave – legali, compliance, management- sui requisiti di explainability.
Solo con una comprensione condivisa dei rischi e delle sfide è possibile costruire una governance efficace.
Verso una nuova maturità dell’intelligenza artificiale
Il messaggio di fondo è che l’AI generativa sta entrando in una fase di maturità. Dopo l’entusiasmo iniziale, emergono le complessità reali dell’adozione su larga scala.
Trasparenza, controllo e responsabilità non sono più optional, ma prerequisiti.
Le aziende che sapranno investire in explainability e osservabilità avranno un vantaggio competitivo significativo: potranno utilizzare l’AI in modo più esteso, sicuro e strategico.
Al contrario, chi trascurerà questi aspetti rischia di restare indietro, limitando l’uso dell’AI a scenari marginali e perdendo opportunità di innovazione.
Conclusione: la fiducia come infrastruttura
In definitiva, il futuro della GenAI non dipende solo da quanto i modelli sono intelligenti, ma da quanto sono comprensibili.
La fiducia diventa un’infrastruttura: invisibile, ma essenziale.
E come ogni infrastruttura, richiede investimenti, standard e governance. L’Explainable AI e l’osservabilità degli LLM rappresentano i pilastri di questa nuova architettura.
Il 2028 non è poi così lontano. E secondo Gartner, sarà l’anno in cui la trasparenza smetterà di essere un’opzione per diventare la condizione necessaria dell’intelligenza artificiale.






