Entro il 2028, il 25% delle applicazioni aziendali di intelligenza artificiale generativa registrerà almeno cinque incidenti di sicurezza “minori” ogni anno. Nel 2025 la quota si ferma al 9%. La stima arriva da Gartner, società di ricerca e consulenza in ambito tecnologico.
La crescita è legata alla rapida adozione di soluzioni GenAI nelle imprese, spesso integrate nei processi senza un livello adeguato di maturità nelle pratiche di sicurezza.
Indice degli argomenti:
Il ruolo delle architetture agentiche e del protocollo MCP
Le organizzazioni stanno sviluppando applicazioni basate su intelligenza artificiale agentica utilizzando tecnologie come il Model Context Protocol (MCP). Questo approccio facilita interoperabilità e velocità di sviluppo, ma introduce nuovi vettori di attacco.
Aaron Lord, senior director analyst di Gartner, segnala che l’MCP è progettato prioritariamente per flessibilità e facilità d’uso. In assenza di monitoraggio continuo, errori di sicurezza possono emergere durante l’uso ordinario delle applicazioni.
Secondo le previsioni, entro il 2029 il 15% delle applicazioni GenAI aziendali subirà almeno un incidente di sicurezza grave all’anno, rispetto al 3% del 2025.
Rischi concreti: dati esposti e componenti vulnerabili
L’adozione crescente di framework come MCP espone le aziende a rischi operativi specifici. Tra questi:
- esposizione di dati sensibili
- vulnerabilità in componenti di terze parti
- comunicazioni non controllate tra agenti e sistemi esterni
I rischi aumentano quando un’applicazione combina accesso a dati sensibili, ingestione di contenuti non verificati e interazioni esterne nello stesso flusso operativo. In questi casi, Gartner suggerisce di evitare completamente l’implementazione per l’elevato rischio di esfiltrazione dei dati.
Governance e controlli: le misure richieste
Gartner indica alcune priorità per i responsabili dell’ingegneria del software:
- introdurre processi formali di revisione della sicurezza per i casi d’uso MCP
- privilegiare applicazioni a basso rischio
- rafforzare autenticazione e autorizzazione specifiche per agenti AI
- monitorare e limitare l’uso di componenti esterni
Le autorizzazioni, in particolare, non dovrebbero essere ereditate dai ruoli umani, ma progettate appositamente per gli agenti, con privilegi limitati e ben definiti.
Le vulnerabilità tipiche delle applicazioni GenAI
Le principali minacce individuate riguardano pattern già noti nella sicurezza informatica, applicati però a nuovi contesti:
- attacchi di content injection
- rischi nella supply chain software
- accesso improprio a dati sensibili
- escalation dei privilegi causata da errori degli agenti
Questi scenari derivano spesso da comportamenti “collaborativi” dell’AI, che può eseguire azioni non previste nel tentativo di essere utile.
Il nodo della responsabilità e della compliance
L’aumento della complessità nelle architetture agentiche rende più difficile gestire accessi ai dati e conformità normativa. Gartner suggerisce di assegnare la responsabilità dei server MCP a domini specifici, con regole definite da esperti di settore.
Questi esperti dovrebbero stabilire in anticipo i limiti operativi e i controlli, prima di consentire agli agenti AI di accedere a dati e risorse aziendali.
Verso una sicurezza “by design”
Per affrontare il problema su larga scala, Gartner raccomanda un approccio “secure by default”: le interazioni degli agenti devono essere progettate fin dall’inizio con vincoli chiari.
La definizione preventiva di regole e controlli diventa un passaggio essenziale per evitare che la velocità di adozione della GenAI superi la capacità delle aziende di gestirne i rischi.







