applicazioni

Agentic AI e imprese complesse: il percorso sperimentale di Eni



Indirizzo copiato

L’adozione di Agentic AI da parte di Eni, raccontata al Politecnico di Milano, evidenzia opportunità e sfide nel superare i silos aziendali, integrando sistemi eterogenei e introducendo nuove forme di governance e sicurezza

Pubblicato il 29 set 2025



agentic_ai_ai4business

L’adozione dell’Agentic AI si sta affermando come un passaggio cruciale per le grandi organizzazioni che devono gestire sistemi complessi e processi stratificati. Durante l’Artificial Intelligence Talk organizzato dall’Osservatorio Artificial Intelligence del Politecnico di Milano, Lorenzo Lancia, Lead data scientist di Eni, ha illustrato come questo paradigma stia trasformando la progettazione delle soluzioni basate su intelligenza artificiale all’interno di una realtà industriale con oltre 33.000 dipendenti.

I pilastri dell’AI nelle grandi organizzazioni

Secondo Lancia, l’approccio all’intelligenza artificiale in Eni è stato costruito attorno a quattro obiettivi principali:

  • supportare gli operatori degli asset industriali,
  • sostenere le attività di ricerca e sviluppo per ridurre il rischio legato all’innovazione tecnologica,
  • migliorare le attività orientate al cliente finale
  • agevolare i processi interni di una grande organizzazione.

In questo quadro, la generative AI e i sistemi di tipo agentico hanno assunto un ruolo sempre più rilevante. Lancia ha sottolineato che non ogni applicazione basata su modelli linguistici può essere definita “agente”: «Gli agenti sono qualcosa di ben specifico», ha chiarito, spiegando come in Eni si sia passati dalla costruzione di semplici assistenti basati su LLM con paradigma RAG (Retrieval-Augmented Generation) allo sviluppo di sistemi più autonomi e capaci di agire.

Dal RAG agli agenti: un’evoluzione necessaria

Il primo livello di applicazioni basate su LLM ha consentito di introdurre assistenti in grado di restituire risposte affidabili, pur con alcune limitazioni. L’evoluzione è arrivata con modelli più performanti, capaci di gestire tool calling, memoria e inferenze rapide, aprendo la strada ad agenti in grado di pianificare, comunicare e coordinarsi tra loro.

Questi sistemi, ha spiegato Lancia, sono stati concepiti come applicazioni che utilizzano i modelli linguistici come motore di ragionamento, acquisendo al contempo «un discreto grado di autonomia e di azionabilità nel mondo circostante». La prospettiva è quella di arrivare a ecosistemi di agenti che collaborano per obiettivi più ampi e complessi, superando il semplice paradigma della risposta singola tipica del retrieval.

Agentic AI come ponte tra sistemi eterogenei

Un elemento chiave dell’intervento è stato il potenziale degli agenti di diventare un ponte tra sistemi IT eterogenei. In una realtà come Eni, composta da decine di linee di business e centinaia di sistemi spesso organizzati in silos, la capacità degli LLM di parlare la stessa “lingua” degli utenti rappresenta un’opportunità strategica.

«Costruire un layer di agenti sopra permette una comunicazione efficace tra diversi sistemi e potenzialmente automatizzare processi che oggi non facciamo perché l’intelligenza umana è fondamentale nel ricondurre un’informazione da un sistema all’altro», ha spiegato Lancia, sottolineando il valore di questa innovazione per una grande organizzazione.

Governance e sicurezza: sfide da affrontare

La realizzazione di agenti in azienda non è però esente da difficoltà. Lancia ha richiamato l’attenzione sulla necessità di un approccio by design alla cybersecurity, in linea con il paradigma dello zero trust. Ha osservato che un sistema di agenti deve essere progettato per rispettare i principi di sicurezza e di autenticazione fin dall’inizio: «Non è qualcosa che uno può dire: faccio una POC e poi mi ritrovo che questo sistema interagisce con i sistemi sorgenti in modo incontrollabile».

Per rispondere a questa complessità, in Eni è stata costruita una piattaforma robusta, avviata con l’arrivo della generative AI e successivamente evoluta per supportare le logiche degli agenti.

Agentic AI Eni

Ripensare lo sviluppo: dall’applicazione verticale ai sistemi agentici

Uno dei punti centrali del cambiamento riguarda il passaggio da una logica verticale, basata sul singolo use case, a un modello più modulare e riutilizzabile. Se in passato ogni applicazione era costruita dall’infrastruttura alla logica di business per rispondere a un bisogno specifico, l’Agentic AI richiede di definire capacità tecnologiche che possano essere riutilizzate in scenari differenti.

Lancia ha chiarito che «se io vado a sviluppare un agente perché il mio dipartimento ha bisogno di ottenere informazioni da diagrammi tecnici, soddisfo un bisogno, ma quell’oggetto non potrà mai essere utilizzato in un sistema multiagente che soddisfa altri bisogni». La nuova logica, al contrario, prevede la costruzione di componenti che possano essere integrate in workflow più complessi.

Il ruolo dell’infrastruttura e dei master agent

A supporto di questa transizione, Eni può contare su un HPC che consente di personalizzare i modelli LLM con tecniche di fine tuning. Questo approccio permette di migliorare l’efficienza in scenari in cui il modello deve ripetere operazioni simili, come avviene spesso nei sistemi agentici.

Accanto a questa base tecnologica, l’azienda ha introdotto la figura del master agent, concepito come coordinatore in grado di orchestrare più agenti specializzati. L’idea è semplificare la comunicazione multiagente attraverso un sistema centrale che gestisce richieste complesse indirizzandole agli agenti appropriati.

Use case: dal knowledge centralizzato al paradigma Mind

Uno degli esempi più significativi riguarda la creazione di un knowledge system centralizzato, utilizzato da tutti i dipendenti di Eni. Inizialmente basato su RAG, questo sistema è stato progressivamente trasformato in un’applicazione agentica per superare i limiti del retrieval, che fornisce risposte in un solo passaggio.

Con gli agenti, invece, un LLM può decidere se la risposta ottenuta è sufficiente oppure continuare a perfezionare la ricerca in autonomia, accedendo a fonti diverse fino a trovare l’informazione più adeguata. Questo comporta un aumento dei costi e della latenza, ma garantisce risultati migliori nella gestione di documentazione tecnica complessa.

A questo si aggiunge il paradigma Mind, sviluppato come sistema in grado di orchestrare dinamicamente agenti locali e centralizzati. «Se la richiesta è semplice, la indirizzo a un agente. Se è complessa e ho mappato un workflow nella memoria del sistema Mind, allora orchestro l’esecuzione», ha spiegato Lancia, descrivendo un approccio che offre le prime applicazioni concrete della logica multiagente.

Le sfide organizzative

Il cambiamento tecnologico porta con sé una riorganizzazione interna significativa. Lancia ha sottolineato come la gestione della domanda di nuovi progetti all’interno di un’azienda complessa richieda un coordinamento diverso tra dipartimenti, in particolare con l’IT. Passare da applicazioni verticali a capacità agentiche riutilizzabili implica una trasformazione non solo tecnica, ma anche organizzativa.

Articoli correlati