Silvio Savarese è vicepresidente esecutivo e responsabile scientifico della ricerca sull’intelligenza artificiale di Salesforce; docente di computer science all’Università di Stanford. Ma è anche l’unico italiano membro dell’Advisory board sull’AI per le Nazioni Unite, dove rappresenta il nostro Paese nelle attività di sviluppo dell’intelligenza artificiale.
Lo abbiamo incontrato a San Francisco, dove ha sede l’azienda – all’interno della Tower di 60 piani – e il centro di ricerca del colosso hi-tech, che ha una struttura distaccata anche a Singapore.
“I prossimi trend e obiettivi sono diversi; tra questi, ci sono innanzitutto lo sviluppo dell’Intelligenza ambientale, le connessioni tra agenti AI di vario tipo, e l’addestramento dei sistemi smart dall’esperienza”, spiega Savarese.
Indice degli argomenti:
Le connessioni tra agenti AI diversi
Lo sviluppo della tecnologia ci sta portando verso un prossimo futuro in cui ogni individuo disporrà di un agente o assistente digitale personale, capace di compiere azioni concrete e personalizzate.
Nella vita quotidiana potrà, ad esempio, gestire prenotazioni e appuntamenti, organizzare spostamenti e viaggi, effettuare acquisti e ordini commerciali.
Nel lavoro, aggiornerà l’agenda e le riunioni, contatterà vari interlocutori, preparerà analisi e relazioni, troverà nuove opportunità di business. E molto altro ancora.

Tutto ciò – moltiplicato per una moltitudine di persone e professionisti – “darà vita a un vero e proprio, enorme, ecosistema di agenti AI, che dovranno comunicare tra loro in modo sicuro ed efficace”, rimarca il chief scientist di Salesforce Research.
Che osserva: “attualmente, queste connessioni indispensabili tra agenti e algoritmi sono in fase di sviluppo e consolidamento, per fare in modo che soluzioni e sistemi AI diversi tra loro possano comunicare e dialogare in maniera uniforme, omogenea, totalmente funzionale”.
I quattro pilastri degli agenti digitali e fisici
Sia gli agenti digitali sia quelli fisici – come i robotaxi a guida autonoma, già operativi in città come San Francisco – condividono un’architettura tecnologica comune, basata su quattro componenti fondamentali:
Cervello (reasoning engine): il motore di ragionamento logico che elabora analisi, decisioni, azioni. Condensa la potenza di calcolo, elaborazione e operativa del sistema ‘intelligente’.
Memoria: la capacità di ricordare informazioni, indicazioni e conversazioni passate e accedere a documentazione specifica per svolgere un incarico.
Attuatori: gli strumenti che permettono di interagire con il mondo esterno, che si tratti di chiamate API e App per il mondo digitale o di bracci meccanici per i robot fisici.
Interfaccia: il punto di contatto con l’utente umano, che può essere testuale, vocale o visivo.
“Stiamo lavorando molto sullo sviluppo di ciascuno di questi quattro fattori”, sottolinea Savarese, “attualmente con un focus in particolare sulle parti di ‘cervello’ e di ‘interfaccia’ dei sistemi hi-tech, per potenziarne le capacità e renderne sempre più intuitivo, facile e veloce l’utilizzo, anche da parte di utenti non specializzati”.
Una nuova frontiera: l’Intelligenza ambientale
Un cambiamento di paradigma fondamentale è il passaggio da un’AI reattiva – basata su un comando e una risposta, come quella generativa – alla cosiddetta Intelligenza ambientale.
In questo modello, l’AI è immersa nel background di riferimento, diventa consapevole del contesto in cui opera, e interviene automaticamente e proattivamente, anche senza essere esplicitamente invocata.

Per esempio, “se un professionista sta dialogando con un altro interlocutore, il sistema di Intelligenza ambientale è in ascolto della conversazione in corso. Quando l’individuo non ricorda bene qualcosa – come dati, informazioni, particolari dell’argomento trattato –, l’AI ambientale può intervenire in suo aiuto, dando solo le informazioni più mirate e pertinenti”, anticipa Savarese.
Tempistica, modalità operative e interfaccia dell’AI ambientale
“Vanno messi bene a punto diversi aspetti di questi nuovi sistemi e applicazioni. Innanzitutto, la tempistica d’intervento”, rileva Savarese. Esempio: “se il dialogo tra i due interlocutori dura mezzora, durante il quale il professionista incontra diverse dimenticanze, imprecisioni, errori, l’AI ambientale dovrebbe intervenire ogni volta – rischiando di risultare troppo invadente, e spezzando troppo il discorso – o in un unico commento, o solo in alcuni casi? Questo è tutto da vedere, e da definire”.
Ci sono, poi, da studiare e prevedere bene le modalità e le interfaccia di questo intervento dell’intelligenza ambientale: se il professionista sta facendo una call online, questa AI come dovrebbe palesarsi e intervenire? Comparendo sul monitor del computer? Con un Alert? Un messaggio esplicativo, chiarificatore? Breve o dettagliato?
“Tutte queste modalità operative e concrete – tra cui, tempistica e interfaccia utente – sono in fase di studio e miglioramento, attraverso prototipi, per poi definire le soluzioni finali”.
Trovare il giusto equilibrio
Un altro esempio concreto di questa tecnologia è il nuovo sistema Pisa (acronimo di Proactive Intelligence Salesforce Agentforce).
È progettato per assistere i venditori o gli operatori dei call center in tempo reale: ascolta la conversazione con il cliente, comprende il contesto e fornisce istantaneamente informazioni precise o suggerimenti tratti dalla documentazione aziendale.

Anche qui, “la sfida principale nello sviluppo di Pisa consiste nel trovare il giusto equilibrio temporale e operativo, intervenendo nel momento esatto in cui il supporto è utile, senza risultare invadenti o eccessivi”.
L’addestramento dall’esperienza
Dato che i modelli di linguaggio (LLM) stanno raggiungendo un livello di saturazione nell’apprendimento dai soli dati testuali di Internet, la nuova frontiera è l’addestramento dall’esperienza.
Gli agenti imparano attraverso un sistema di feedback positivi e negativi basati sulle loro azioni, in modo simile agli esseri umani.
Per rendere gli agenti performanti prima ancora che arrivino sul mercato, vengono utilizzati ambienti di simulazione. Il progetto eVers (Enterprise Verse) crea un ‘omniverse’ aziendale dove gli agenti vengono messi alla prova in situazioni critiche – come rumori di fondo o accenti difficili da capire in un call center – per migliorarne la robustezza e l’efficacia. Questa tecnologia è già operativa all’interno degli strumenti di test della piattaforma Agentforce di Salesforce.

Altre frontiere future: negoziazione tra agenti e auto-addestramento
La ricerca si sta concentrando anche su due ulteriori trend trasformativi:
- interazione e negoziazione agente-agente:
- creazione di protocolli di comunicazione che permettano agli assistenti digitali di negoziare tra loro.
Ad esempio, l’agente AI di un acquirente potrebbe negoziare il prezzo di un’auto con l’agente di un concessionario, coordinandosi contemporaneamente con l’agente di una banca per un finanziamento.
Self-learning (auto-addestramento): “lo sviluppo di un’AI capace di riconoscere i propri limiti e le proprie lacune conoscitive”, spiega Savarese, “costruendo autonomamente gli strumenti necessari per colmarle e ridurre così i fenomeni di errore e allucinazione”.



