In Italia l’adozione dell’AI entra in una fase in cui la spinta del business pesa spesso più delle cautele sul fronte della sicurezza. Secondo i dati diffusi da TrendAI, il 60% dei responsabili aziendali italiani afferma di avere approvato progetti di intelligenza artificiale nonostante perplessità legate a security e conformità. Il motivo, nella maggior parte dei casi, è semplice: la necessità di restare competitivi e di rispondere in tempi rapidi alle richieste interne.
Il dato italiano si inserisce in un quadro più ampio. La ricerca globale “Securing the AI-Powered Enterprise”, commissionata da TrendAI a Sapio Research, ha coinvolto 3.700 business e IT decision maker in 23 Paesi e rileva che il 67% degli intervistati nel mondo ha percepito pressioni per approvare iniziative AI anche in presenza di dubbi sulla sicurezza. TrendAI, va ricordato, è il nuovo brand con cui Trend Micro ha rinominato nel marzo 2026 il proprio business enterprise dedicato alla sicurezza dell’AI.
Il punto centrale non è la mancanza di consapevolezza del rischio. Il punto è che molte organizzazioni introducono l’AI in processi critici prima di avere un impianto di governo adeguato. Quando l’innovazione nasce soprattutto da pressioni competitive, la sicurezza tende a intervenire dopo, con un approccio reattivo.
In questo scenario trovano spazio responsabilità poco chiare, policy incomplete e ricorso a strumenti non autorizzati, il cosiddetto shadow AI.
Indice degli argomenti:
Policy incomplete e conformità ancora incerta
La fotografia italiana mostra un divario evidente tra ambizione e presidio. Il 57% del campione dichiara che l’AI supera oggi la capacità di difesa dell’organizzazione. Solo il 20% riferisce l’esistenza di policy complete dedicate all’AI, mentre il 41% indica nella scarsa chiarezza di norme e standard di conformità uno dei principali ostacoli. In parallelo, il 23% segnala appena una fiducia moderata nella propria comprensione dei quadri giuridici che regolano l’AI.
Su questo fronte il contesto europeo spiega almeno in parte l’incertezza. La Commissione europea ricorda che l’AI Act è entrato in vigore il 1° agosto 2024 e diventerà pienamente applicabile dal 2 agosto 2026, con eccezioni e periodi transitori specifici: le regole per i modelli GPAI valgono dal 2 agosto 2025, mentre alcune norme sui sistemi ad alto rischio inseriti in prodotti regolati slittano fino al 2 agosto 2027.
La stessa Commissione sta ancora preparando linee guida e strumenti di supporto ulteriori per l’attuazione pratica.
Per le imprese questo significa una cosa molto concreta: l’AI entra in produzione mentre il quadro di governo resta, in molti casi, incompleto. Ne derivano scelte operative che possono apparire efficaci nel breve periodo ma che espongono l’azienda a problemi futuri di controllo, audit, gestione del dato e accountability.
Il nodo degli agenti autonomi
Il capitolo più delicato riguarda l’AI agentica e, più in generale, i sistemi autonomi capaci di accedere a dati, attivare flussi e prendere decisioni con margini sempre più ampi. Nel campione italiano il 43% ritiene che queste tecnologie possano migliorare in modo significativo la difesa cyber nel breve termine. La fiducia, però, non elimina i timori.
Il 39% degli intervistati individua nell’accesso ai dati sensibili il rischio principale. Il 25% teme prompt malevoli capaci di alterare il comportamento dei sistemi, mentre il 26% richiama l’ampliamento della superficie di attacco. Un altro 28% segnala il possibile abuso dello status di AI ritenuta affidabile e i rischi collegati all’implementazione autonoma di codice. A rendere il quadro ancora più critico c’è poi un altro dato: il 28% ammette di non disporre di osservabilità o verificabilità adeguate sui sistemi già in uso.
Qui emerge la contraddizione più forte. Le aziende guardano agli agenti AI come a uno strumento utile per ridurre tempi, alleggerire carichi operativi e rafforzare alcune attività di difesa. Allo stesso tempo, una quota rilevante del campione ammette di non avere piena visibilità su ciò che questi sistemi fanno una volta attivati. Senza tracciabilità, audit e controllo degli accessi, l’automazione rischia di spostare il problema invece di risolverlo.
Chi decide e chi risponde
La questione della responsabilità resta aperta. Quando un sistema AI entra in un processo aziendale, serve una catena di governo chiara che coinvolga vertici, funzioni legali, sicurezza, protezione dati e linee di business. Nel report globale TrendAI osserva che la proprietà del rischio AI risulta spesso frammentata tra CISO, team security, compliance, legale e data protection, con una distribuzione che cambia a seconda del profilo del rispondente.
Anche il tema dei kill switch, cioè dei meccanismi di arresto rapido in caso di errore o uso improprio, mostra un consenso ancora parziale. In Italia il 38% si dice favorevole alla loro introduzione, mentre una quota rilevante del campione non esprime una posizione netta. È un segnale importante: molte imprese vogliono sfruttare sistemi più autonomi, ma non hanno ancora definito in modo condiviso le condizioni minime per mantenerne il controllo.
Una questione di priorità manageriale
Il messaggio che emerge dalla ricerca è che il problema non riguarda solo la sicurezza in senso tecnico, ma la qualità del governo aziendale dell’AI. L’adozione non può dipendere esclusivamente dalla pressione del mercato o dalla paura di restare indietro. Serve una struttura che definisca ruoli, policy, limiti di accesso, monitoraggio e risposta agli incidenti.
Per questo il dato del 60% non descrive soltanto una corsa all’innovazione. Descrive anche una fragilità organizzativa. Le imprese italiane sembrano consapevoli della posta in gioco, ma non sempre dispongono degli strumenti necessari per tradurre questa consapevolezza in controllo operativo.
È su questo scarto, più che sulla tecnologia in sé, che si giocherà una parte importante della sicurezza AI nei prossimi mesi.






