ai leader

Savarese (Salesforce): “I prossimi obiettivi sono l’intelligenza ambientale, le connessioni tra agenti AI e l’addestramento dall’esperienza”



Indirizzo copiato

Dal centro di ricerca e sviluppo di San Francisco, le anticipazioni del Chief scientist di Salesforce. Un esperto di sistemi hi-tech di nuova generazione, che è anche l’unico italiano membro dell’Advisory board sull’AI per le Nazioni Unite, dove rappresenta il nostro Paese

Pubblicato il 24 apr 2026

Stefano Casini

giornalista



Savarese Salesforce AI intelligenza ambientale
Silvio Savarese, responsabile scientifico della ricerca di Salesforce, membro dell’Advisory board sull’AI per le Nazioni Unite
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Silvio Savarese è vicepresidente esecutivo e responsabile scientifico della ricerca sull’intelligenza artificiale di Salesforce; docente di computer science all’Università di Stanford. Ma è anche l’unico italiano membro dell’Advisory board sull’AI per le Nazioni Unite, dove rappresenta il nostro Paese nelle attività di sviluppo dell’intelligenza artificiale.

Lo abbiamo incontrato a San Francisco, dove ha sede l’azienda – all’interno della Tower di 60 piani – e il centro di ricerca del colosso hi-tech, che ha una struttura distaccata anche a Singapore.

“I prossimi trend e obiettivi sono diversi; tra questi, ci sono innanzitutto lo sviluppo dell’Intelligenza ambientale, le connessioni tra agenti AI di vario tipo, e l’addestramento dei sistemi smart dall’esperienza”, spiega Savarese.

Le connessioni tra agenti AI diversi

Lo sviluppo della tecnologia ci sta portando verso un prossimo futuro in cui ogni individuo disporrà di un agente o assistente digitale personale, capace di compiere azioni concrete e personalizzate.

Nella vita quotidiana potrà, ad esempio, gestire prenotazioni e appuntamenti, organizzare spostamenti e viaggi, effettuare acquisti e ordini commerciali.

Nel lavoro, aggiornerà l’agenda e le riunioni, contatterà vari interlocutori, preparerà analisi e relazioni, troverà nuove opportunità di business. E molto altro ancora.

Immagine che contiene giocattolo, cartone animatoIl contenuto generato dall'IA potrebbe non essere corretto.

Tutto ciò – moltiplicato per una moltitudine di persone e professionisti – “darà vita a un vero e proprio, enorme, ecosistema di agenti AI, che dovranno comunicare tra loro in modo sicuro ed efficace”, rimarca il chief scientist di Salesforce Research.

Che osserva: “attualmente, queste connessioni indispensabili tra agenti e algoritmi sono in fase di sviluppo e consolidamento, per fare in modo che soluzioni e sistemi AI diversi tra loro possano comunicare e dialogare in maniera uniforme, omogenea, totalmente funzionale”.

I quattro pilastri degli agenti digitali e fisici

Sia gli agenti digitali sia quelli fisici – come i robotaxi a guida autonoma, già operativi in città come San Francisco – condividono un’architettura tecnologica comune, basata su quattro componenti fondamentali:

Cervello (reasoning engine): il motore di ragionamento logico che elabora analisi, decisioni, azioni. Condensa la potenza di calcolo, elaborazione e operativa del sistema ‘intelligente’.

Memoria: la capacità di ricordare informazioni, indicazioni e conversazioni passate e accedere a documentazione specifica per svolgere un incarico.

Attuatori: gli strumenti che permettono di interagire con il mondo esterno, che si tratti di chiamate API e App per il mondo digitale o di bracci meccanici per i robot fisici.

Interfaccia: il punto di contatto con l’utente umano, che può essere testuale, vocale o visivo.

“Stiamo lavorando molto sullo sviluppo di ciascuno di questi quattro fattori”, sottolinea Savarese, “attualmente con un focus in particolare sulle parti di ‘cervello’ e di ‘interfaccia’ dei sistemi hi-tech, per potenziarne le capacità e renderne sempre più intuitivo, facile e veloce l’utilizzo, anche da parte di utenti non specializzati”.

Una nuova frontiera: l’Intelligenza ambientale

Un cambiamento di paradigma fondamentale è il passaggio da un’AI reattiva – basata su un comando e una risposta, come quella generativa – alla cosiddetta Intelligenza ambientale.

In questo modello, l’AI è immersa nel background di riferimento, diventa consapevole del contesto in cui opera, e interviene automaticamente e proattivamente, anche senza essere esplicitamente invocata.

Immagine che contiene arte, schermata, luceIl contenuto generato dall'IA potrebbe non essere corretto.

Per esempio, “se un professionista sta dialogando con un altro interlocutore, il sistema di Intelligenza ambientale è in ascolto della conversazione in corso. Quando l’individuo non ricorda bene qualcosa – come dati, informazioni, particolari dell’argomento trattato –, l’AI ambientale può intervenire in suo aiuto, dando solo le informazioni più mirate e pertinenti”, anticipa Savarese.

Tempistica, modalità operative e interfaccia dell’AI ambientale

“Vanno messi bene a punto diversi aspetti di questi nuovi sistemi e applicazioni. Innanzitutto, la tempistica d’intervento”, rileva Savarese. Esempio: “se il dialogo tra i due interlocutori dura mezzora, durante il quale il professionista incontra diverse dimenticanze, imprecisioni, errori, l’AI ambientale dovrebbe intervenire ogni volta – rischiando di risultare troppo invadente, e spezzando troppo il discorso – o in un unico commento, o solo in alcuni casi? Questo è tutto da vedere, e da definire”.

Ci sono, poi, da studiare e prevedere bene le modalità e le interfaccia di questo intervento dell’intelligenza ambientale: se il professionista sta facendo una call online, questa AI come dovrebbe palesarsi e intervenire? Comparendo sul monitor del computer? Con un Alert? Un messaggio esplicativo, chiarificatore? Breve o dettagliato?

“Tutte queste modalità operative e concrete – tra cui, tempistica e interfaccia utente – sono in fase di studio e miglioramento, attraverso prototipi, per poi definire le soluzioni finali”.

Trovare il giusto equilibrio

Un altro esempio concreto di questa tecnologia è il nuovo sistema Pisa (acronimo di Proactive Intelligence Salesforce Agentforce).

È progettato per assistere i venditori o gli operatori dei call center in tempo reale: ascolta la conversazione con il cliente, comprende il contesto e fornisce istantaneamente informazioni precise o suggerimenti tratti dalla documentazione aziendale.

Immagine che contiene persona, mano, tenereIl contenuto generato dall'IA potrebbe non essere corretto.

Anche qui, “la sfida principale nello sviluppo di Pisa consiste nel trovare il giusto equilibrio temporale e operativo, intervenendo nel momento esatto in cui il supporto è utile, senza risultare invadenti o eccessivi”.

L’addestramento dall’esperienza

Dato che i modelli di linguaggio (LLM) stanno raggiungendo un livello di saturazione nell’apprendimento dai soli dati testuali di Internet, la nuova frontiera è l’addestramento dall’esperienza.

Gli agenti imparano attraverso un sistema di feedback positivi e negativi basati sulle loro azioni, in modo simile agli esseri umani.

Per rendere gli agenti performanti prima ancora che arrivino sul mercato, vengono utilizzati ambienti di simulazione. Il progetto eVers (Enterprise Verse) crea un ‘omniverse’ aziendale dove gli agenti vengono messi alla prova in situazioni critiche – come rumori di fondo o accenti difficili da capire in un call center – per migliorarne la robustezza e l’efficacia. Questa tecnologia è già operativa all’interno degli strumenti di test della piattaforma Agentforce di Salesforce.

Immagine che contiene aria aperta, Palazzo, Area metropolitana, cieloIl contenuto generato dall'IA potrebbe non essere corretto.
La Salesforce Tower di 60 piani a San Francisco

Altre frontiere future: negoziazione tra agenti e auto-addestramento

La ricerca si sta concentrando anche su due ulteriori trend trasformativi:

  • interazione e negoziazione agente-agente:
  • creazione di protocolli di comunicazione che permettano agli assistenti digitali di negoziare tra loro.

Ad esempio, l’agente AI di un acquirente potrebbe negoziare il prezzo di un’auto con l’agente di un concessionario, coordinandosi contemporaneamente con l’agente di una banca per un finanziamento.

Self-learning (auto-addestramento): “lo sviluppo di un’AI capace di riconoscere i propri limiti e le proprie lacune conoscitive”, spiega Savarese, “costruendo autonomamente gli strumenti necessari per colmarle e ridurre così i fenomeni di errore e allucinazione”.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x