L’intelligenza artificiale sta rapidamente evolvendo da un insieme di strumenti potenti a una componente centrale dell’impresa competitiva. Modelli specializzati, agenti di AI e architetture native per l’AI garantiranno che l’intelligenza artificiale continui a integrarsi nel cuore stesso delle operazioni aziendali, con vantaggi potenzialmente molto rilevanti.
Per orientarsi nell’evoluzione dell’AI, le organizzazioni devono comprendere che non si tratta più soltanto di chiedersi “Cosa può fare l’AI?”, ma piuttosto “Come prepariamo la nostra organizzazione al successo con l’AI? Come la progettiamo? Quali problemi risolviamo, con quali modelli? Come la governiamo?”.
Guardando ai cinque temi importanti che definiranno l’AI per le aziende nel 2026, emergono sia opportunità sia sfide.
Indice degli argomenti:
1. Nuove categorie di modelli fondazionali di AI sbloccano valore per le imprese
I progressi dell’AI generativa derivano da innovazioni nei “foundation model”, enormi reti neurali addestrate su enormi quantità di dati, che possono essere adattate per un’ampia gamma di attività.
I large language model (LLM) hanno rappresentato la prima ondata di foundation model su larga scala. Gli LLM generalisti, addestrati su un volume di testi paragonabile all’intero contenuto di Internet, hanno aperto la strada a numerosi casi d’uso ad alto valore, come il riassunto di documenti, la scrittura di codice e applicazioni come ChatGPT e Claude. Negli ultimi anni, l’approccio dei foundation model è stato applicato anche ad altri ambiti, come la creazione di video e voce.
Nel 2026, i foundation model specializzati, ottimizzati per specifici tipi di dati e domini, alimenteranno i casi d’uso di AI a maggior valore per il business. I modelli di generazione video hanno già dimostrato che modelli basati su dati del mondo reale sono in grado di ragionare su scene e dinamiche fisiche. I cosiddetti world model emergenti dimostrano che la simulazione del mondo fisico apre nuove possibilità nella simulazione, nei dati sintetici per l’addestramento e nei digital twin.
I modelli visione-linguaggio-azione dimostrano che i modelli di base specifici per i robot possono essere generalizzati per nuovi compiti e ambienti, consentendo di trasformare la conoscenza su scala web in azioni reali nella logistica e nella produzione.
Il contesto enterprise
Nel contesto enterprise, è in corso un cambiamento analogo per i dati strutturati presenti nei database e nei software transazionali. Sebbene gli LLM siano efficaci in molti casi d’uso aziendale, non sono adatti a gestire attività come le previsioni numeriche, ad esempio stimare una data di consegna o un punteggio di rischio di un fornitore. Tuttavia, il lavoro sui foundation model relazionali dimostra che l’addestramento su dataset strutturati – ad esempio dati tabellari, anziché testi o immagini generiche provenienti da Internet – può garantire un’elevata accuratezza predittiva senza la complessa attività di feature engineering e addestramento richiesta dal machine learning tradizionale. Questo consente alle organizzazioni di implementare modelli predittivi in pochi giorni, anziché in mesi.
I recenti lanci di modelli fondazionali relazionali, come SAP-RPT-1, Kumo e DistilLabs, evidenziano come questi nuovi modelli possano supportare direttamente casi d’uso quali previsione, rilevamento delle anomalie e ottimizzazione in ambiti come ERP, finance, produzione e supply chain.
Nel 2026, si prevede che questi modelli specializzati possano scalare offrendo prestazioni ed efficienza economica superiori per compiti aziendali strutturati, superando gli LLM generalisti e gli algoritmi di machine learning più avanzati. Questi modelli emergeranno come i veri “motori” delle attività enterprise ad alto valore.
2. Il software evolve verso architetture native per l’AI
Nel corso dei decenni, l’AI ha creato valore attraverso diversi approcci: dai primi sistemi esperti basati su regole, al deep learning probabilistico, fino alla recente esplosione dell’AI generativa. Nel 2026, le imprese passeranno dal potenziamento di applicazioni e processi AI esistenti all’adozione di architetture AI-native, in grado di realizzare pienamente il potenziale dell’AI moderna.
Un’architettura AI-native aggiunge uno strato di intelligenza agentica e in continuo apprendimento sopra i sistemi deterministici, consentendo alle applicazioni di essere guidate dall’intento, consapevoli del contesto e auto-miglioranti, invece di essere rigidamente codificate attorno a flussi di lavoro fissi. I sistemi agentici saranno efficaci solo quanto lo è il livello di contesto su cui possono basarsi in modo affidabile.
Per questo, le organizzazioni dovrebbero investire in knowledge graph realmente completi e semanticamente ricchi, che forniscano una fonte di contesto scalabile, rendendo il software AI-native affidabile e in grado di migliorarsi nel tempo.
La applicazioni enterprise
Le applicazioni enterprise saranno sempre più progettate nativamente attorno alle capacità dell’AI, con esperienze utente pensate per interazioni multimodello e in linguaggio naturale; agenti di AI in grado di ragionare su processi complessi; e una base che gestisce modelli fondazionali, servizi e un knowledge graph che cattura dati di business semanticamente ricchi. L’architettura AI-native consentirà inoltre a un numero crescente di dipendenti di creare applicazioni – come strumenti di produttività ad hoc – in pochi minuti, senza sovraccaricare la divisione IT.
Le architetture AI-native si fondano su, e richiedono, principi SaaS consolidati e investimenti in applicazioni cloud moderne. Il termine tecnico che descrive la combinazione di modelli di AI probabilistici e adattivi con sistemi di registrazione deterministici è “AI neurosimbolica”. Questo approccio unisce la capacità di adattamento dell’AI a processi affidabili, governabili e deterministici.
Le applicazioni di nuova generazione non si limiteranno ad avere l’AI integrata, ma saranno costruite attorno all’AI come elemento centrale. Ciò significa combinare ragionamento, regole aziendali e dati per fornire insight e automazione in modo fluido. Immaginate sistemi ERP che segnalino proattivamente le anomalie, raccomandino azioni ed eseguano flussi di lavoro in autonomia, rimanendo allineati alle policy e normative dell’organizzazione.

3. La governance degli agenti diventa mission-critical
Negli ultimi due o tre anni, l’AI generativa ha introdotto una nuova ondata di casi d’uso ad alto valore. Questi casi d’uso si basavano in gran parte su utenti che inviavano un prompt a un modello, ricevevano una risposta e poi interagivano nuovamente con il modello.
Lo scorso anno ha segnato l’inizio della fase successiva di innovazione: agenti di AI in grado di pianificare e ragionare in modo iterativo su attività articolate in più fasi, tra cui la selezione degli strumenti, l’auto-riflessione sui progressi e la collaborazione con altri agenti di AI. Questi agenti avanzati promettono di affrontare processi aziendali complessi, che in precedenza era difficile automatizzare, come l’analisi di una grande quantità di documenti, la verifica di registri e policy per risolvere una controversia o la prenotazione di un viaggio.
Tuttavia, la proliferazione di agenti di AI, molti dei quali gestiscono attività critiche e dati sensibili, richiede lo sviluppo di nuove capacità. La governance degli agenti emergerà come una competenza fondamentale man mano che le organizzazioni implementeranno centinaia di agenti specializzati. La sfida dell’“agent sprawl” rifletterà le precedenti crisi di shadow IT, ma con una posta in gioco più alta, date le capacità decisionali autonome degli agenti.
Definire framework di governance
Le aziende più lungimiranti definiranno framework di governance completi per coprire cinque dimensioni:
- gestione del ciclo di vita degli agenti (controllo delle versioni, protocolli di test, approvazione del rilascio e procedure di dismissione);
- osservabilità e verificabilità (inventario degli agenti, registrazione, percorsi di ragionamento e tracciamento delle azioni);
- applicazione delle policy (integrazione di regole, vincoli normativi e linee guida etiche nell’esecuzione degli agenti);
- modelli di collaborazione uomo-agente (definizione dei limiti di autonomia, requisiti di approvazione e percorsi di escalation);
- monitoraggio dei risultati (accuratezza, efficienza, costi e impatto sul business).
Il cambiamento organizzativo si rivelerà profondo: dalla visione dell’AI come strumento indipendente alla gestione degli agenti come collaboratori digitali che richiedono onboarding, valutazioni delle prestazioni e miglioramento continuo.
Le funzioni HR e IT collaboreranno alla “gestione della forza lavoro digitale”, trattando la governance agentica con la stessa serietà con cui trattano la tradizionale gestione delle risorse umane.
4. Gli ERP basati sull’intento e interfacce generative emergono come nuova esperienza utente
I consumatori stanno diventando sempre più familiari con interazioni che richiedono prompt in linguaggio naturale, voce e persino immagini e gesti. Allo stesso tempo, la capacità dell’AI generativa di creare testi, grafici, codice e HTML in tempo reale sta migliorando rapidamente. In parallelo, gli agenti di AI consentono alle persone di esprimere semplicemente un’intenzione, lasciando all’agente il compito di determinare come lavorare per raggiungere l’obiettivo.
Questi progressi aprono la strada a modalità diverse e completamente nuove di utilizzo del software enterprise, nonché a esperienze di “ERP senza app”. Ad esempio, per prenotare una visita a un cliente, oggi un dipendente deve aprire un’applicazione di analytics per esaminare l’account, consultare il sistema CRM per recuperare l’indirizzo del cliente e quindi passare a un’altra applicazione per prenotare il viaggio, tra le altre attività.
Nel 2026 vedremo sempre più spesso esperienze di “gen UI” emergere tramite assistenti digitali, liberando gli utenti dalla necessità di navigare tra più applicazioni ed eseguire attività manuali. Con il tempo, l’AI permetterà all’utente di esprimere semplicemente l’intento: “Organizza un viaggio dal cliente che presenta il maggior numero di opportunità”. A quel punto, un agente di AI pianificherà i passaggi e i sistemi necessari, interagendo con l’utente per confermare i dettagli della trasferta e generando dinamicamente grafici e materiali di briefing nella stessa finestra.
Le interazioni con gli agenti: oltre la semplice chat
Man mano che gli agenti di AI svilupperanno capacità di calcolo e previsione più avanzate, gli utenti potranno “parlare con i propri dati” in modo sempre più naturale, mentre gli agenti prenderanno decisioni basate sui dati in background. È importante chiarire che le interazioni con gli agenti andranno ben oltre la semplice chat: includeranno visualizzazioni avanzate, flussi di lavoro completi e la possibilità di creare applicazioni iper-personalizzate con pochi comandi.
L’interfaccia utente non scomparirà. Le esperienze di no-app ERP e gli agenti autonomi richiedono le stesse fondamenta su cui si basa il lavoro quotidiano delle persone: workflow strutturati, sicurezza, governance e logica di business definite nelle applicazioni aziendali. La differenza è che gli agenti consumano questi elementi in modo programmatico e su larga scala, non solo tramite una GUI, mentre le persone possono interagire con gli agenti attraverso il linguaggio naturale senza dover aprire l’applicazione.
Queste capacità inaugureranno un nuovo paradigma di collaborazione uomo-AI e di produttività sul lavoro. Esperienze personalizzate e workflow adattivi tra applicazioni e fonti di dati ridurranno le barriere all’adozione. La possibilità di concentrarsi esclusivamente sul raggiungimento dell’obiettivo dell’utente, indipendentemente dalla modalità di interazione e dai sistemi sottostanti, guiderà il ritorno sull’investimento (ROI) in AI e software enterprise.
5. La deglobalizzazione spinge le offerte di AI sovrana
L’AI ha acceso molti dibattiti sulla sovranità digitale tra i Paesi, a causa del suo potenziale impatto in ambiti che vanno dalla scoperta scientifica e la sicurezza nazionale alla produttività economica e persino alla cultura. Eventi geopolitici, come le interruzioni della supply chain causate da dazi e conflitti, hanno ulteriormente intensificato l’urgenza percepita da molti Paesi e organizzazioni di essere digitalmente sovrani.
La sovranità digitale ha due definizioni principali. La prima riguarda la sicurezza delle informazioni e la regolamentazione di archiviazione e accesso ai dati, come FedRAMP negli Stati Uniti e VSA in Germania, necessarie per elaborare dati governativi sensibili in un “cloud sovrano”. La seconda, più ampia, riguarda la provenienza degli asset fisici, della proprietà intellettuale, della giurisdizione legale e dei servizi lungo l’intera stack cloud. Ad esempio, un’applicazione utilizza un modello di AI sviluppato in Europa, negli Stati Uniti o in Cina? Il data center è geograficamente isolato?
L’elevata posta in gioco, l’incertezza geopolitica e la complessità dell’“AI sovrana” porteranno le aziende a richiedere sempre più soluzioni AI e cloud che siano allo stesso tempo all’avanguardia, flessibili e pienamente sovrane. Ciò intensificherà il passaggio da cloud globalizzati e standardizzati a piattaforme enterprise regionali, conformi alle normative e abilitate dall’AI. Parallelamente, i governi continueranno a perfezionare le proprie strategie nazionali sull’AI, investendo nei segmenti dello stack in cui possono competere e creare valore.
Attuare i temi dell’AI nel 2026
Nel 2026, l’AI è destinata a passare da strumento di supporto a pilastro fondamentale delle imprese. Questo cambiamento è guidato dalla convergenza di trend determinanti – agenti sempre più capaci, interfacce generative e architetture AI-native – che spingono l’AI dal livello applicativo al cuore stesso delle operazioni di business.
Avranno successo le aziende che riconosceranno questo cambiamento e costruiranno organizzazioni progettate per l’AI:
- definendo una governance solida per gestire una forza lavoro collaborativa composta da persone e agenti di AI;
- adottando interfacce generative per ridurre le barriere all’adozione e un’esperienza guidata dall’intento che aiuti i dipendenti a interagire in modo naturale;
- individuando foundation model specializzati, ottimizzati per i casi d’uso enterprise, per generare valore di business;
- sviluppando applicazioni native per l’AI che combinano ragionamento, regole e dati, offrendo insight proattivi e automazione.
Tuttavia, anche nel 2026 le imprese avranno ancora bisogno di dati di alta qualità e ben connessi. I silos di dati limitano fortemente l’efficacia dell’AI.
Come già evidenziato, l’architettura AI-native richiede investimenti consolidati in applicazioni cloud moderne che armonizzino i dati in tutta l’azienda, perché dati unificati rendono i risultati dell’AI più accurati e rilevanti.






