approfondimento

Agenti conversazionali: come cambiano i chatbot nell’era di ChatGPT



Indirizzo copiato

Le applicazioni business degli LLM diventeranno sempre più pervasive a mano a mano che aumenteranno le aziende che le adottano. In teoria, questo porterà a una esplosione del settore: ma ci sono due aspetti importanti di cui tenere conto

Pubblicato il 31 gen 2024

Giuseppe Scarpi

Business Development Manager R2M Solution S.r.l.



pc

Uno sguardo in ottica business ai Large Language Models (LLM), di cui ChatGPT è forse il più conosciuto. Ecco quali impieghi industriali possono avere, in particolare gli agenti conversazionali (evoluzione dei chatbot), e le previsioni sul loro futuro.

Come funzionano gli LLM

Gli LLM, come ChatGPT o Bard, sono una delle più raffinate applicazioni dei cosiddetti Transformers, algoritmi introdotti da Google Brain nel 2017 e con impressionanti capacità di manipolare testi (ma anche immagini e perfino audio). Capire appieno il loro funzionamento è materia da specialisti, ma una conoscenza base può servire per comprenderne potenzialità e limiti in ambito business.

Partiamo da questa conversazione scolastica:

Maestro: il sole è giallo, il prato è verde e il cielo è…

Bambino: è blu!

Maestro: bravo, ma perché hai detto blu e non, per esempio, grigio?

Bambino: perché, quando c’è il sole, il cielo è blu.

Il maestro ha iniziato una frase, lasciando al bambino il compito di completarla. Lui, basandosi sulle proprie conoscenze, ha dato la risposta più plausibile. In che senso più plausibile? E che c’entra con gli LLM? Prima di rispondere, facciamo un altro passo e diamo un breve sguardo alla nostra mente.

La mente umana e l’associazione simbolica

La psicologia cognitiva ha dimostrato che, quando la mente pensa a un simbolo come bambino, attiva in modo involontario anche simboli associati come mamma, giocare, scuola. Il legame tra le coppie varia in funzione dei simboli (bambino-mamma sarà più forte di bambino-scuola) e del contesto (se si parla di scuola, bambino-scuola diventerà più forte). Inoltre, l’esperienza e lo studio possono creare, spezzare o cambiare i legami.

Nell’esempio, il bambino ha attivato il simbolo cielo e altri associati come nuvole, blu, grigio, decidendo che blu è la migliore risposta perché in quel contesto il legame cielo-blu era il più forte. Questo meccanismo di base permette di costruire intere frasi e potenzialmente testi di ogni lunghezza. Gli LLM, a grandi linee, utilizzano un principio analogo: le nozioni apprese durante l’addestramento permettono di costruire la risposta più adeguata a una domanda dell’utente. Possiamo essere sorpresi dalle capacità di ChatGPT, ma il meccanismo di base è quello: dato un testo di ingresso, gli LLM calcolano la risposta che meglio si adatta.

Ma che fare con le ambiguità, di cui le lingue umane sono piene? Le persone risolvono i dubbi usando il contesto, ma lo stesso vale anche per gli LLM. I risultati sono impressionanti anche in casi complessi come i doppi sensi o le situazioni umoristiche: guardiamo ad esempio la spiegazione di ChatGPT 4 a questa vignetta.

Figura 1: GPT4 capisce perfettamente l’umorismo di questa striscia e la spiega con precisione

Limiti funzionali degli LLM

Gli LLM funzionano bene, ma hanno alcuni limiti di cui tenere conto. Ecco i più importanti:

  • Anzitutto, essi conoscono solo i fatti avvenuti prima del loro addestramento, e questo può portare a risposte obsolete o sbagliate. Modelli come ChatGPT 4 superano in parte il limite grazie alla capacità di consultare il web.
  • Inoltre, essi sono famosi per le cosiddette allucinazioni, risposte che sembrano precise e circostanziate, ma sono totalmente sbagliate. Figura 2 mostra un esempio abbastanza innocuo, ma un caso molto più grave è avvenuto a fine 2023, quando Michael Cohen, ex legale di Donald Trump, ha involontariamente citato sentenze inesistenti prodotte da allucinazioni di Google Bard.

Fortunatamente, come vedremo, esistono delle contromisure.

Immagine che contiene testo, schermata, CarattereDescrizione generata automaticamente
Figura 2: Il titolo in realtà è “Venezia-Istanbul” dall’album “Patriots” (EMI, 1980). ChatGPT-4 non fa lo stesso errore, ma solo perché accede al web per cercare la risposta

Applicazioni business degli LLM

Chi pensa che il mercato degli LLM sia una nicchia farà bene a ricredersi: in un recente report, Valuates stima che il mercato abbia superato 10 miliardi di USD nel 2022, con un robusto CAGR di oltre 21%. Una parte significativa del fatturato è riservata ai cosiddetti agenti conversazionali, che comunicano con gli utenti per fornire informazioni o rispondere a domande: un enorme passo avanti rispetto ai tradizionali chatbot, che potevano rispondere solo a poche domande predefinite. Un agente basato su LLM capisce la conversazione umana, risponde in modo naturale a quesiti complessi e fornisce risposte personalizzate.

Ecco due casi corporate di grande impatto: Microsoft ha creato Copilot, sfruttando gli LLM per aumentare applicazioni esistenti, mentre Schneider Electric li ha integrati nel proprio ERP con tangibili vantaggi per i clienti. Molte altre aziende (alimentari, fornitori di servizi, compagnie aeree…) utilizzano o pensano di utilizzare gli LLM per migliorare il supporto clienti. Non mancano esempi insoliti come Wysa per il benessere mentale dei dipendenti, che ha raccolto milioni di dollari di investimenti e ha ricevuto premi per l’innovazione.

Anche in Italia alcune aziende operano in questo stimolante campo. L’azienda per cui lavoro, ad esempio, è un acceleratore di innovazione attivo a livello europeo e sta sviluppando soluzioni che sfruttano gli LLM per migliorare la gestione delle risorse umane, valutare le competenze dei lavoratori e suggerire loro percorsi di crescita. I risultati sono promettenti anche grazie alla partnership scientifica con Università di Cagliari – Dipartimento di Matematica e Informatica, da anni in prima linea sugli NLP.

Come risolvere il problema delle allucinazioni?

La tecnica più efficace consiste nel passare all’agente informazioni sicure su un certo argomento, chiedendo poi di usarle durante l’interazione con gli utenti, senza “inventare” nulla. In tal modo, le risposte saranno precise e veritiere, pur offrendo una conversazione fluida e naturale. Ad esempio, un produttore di lavatrici passerà all’agente l’elenco dei modelli con le caratteristiche, in modo che durante la conversazione l’utente riceva soltanto dati certificati dall’azienda.

Questo metodo obbliga però a condividere informazioni con un servizio di terze parti, per di più esterno allo spazio UE: questo non è raccomandabile se i dati sono riservati, ad esempio una knowledge base aziendale o un archivio di progetti. In questo caso, si può usare un approccio tecnicamente più complesso, ma efficace: anziché passare all’agente le informazioni, si spiega solo come fare a cercarle.

Usando un’analogia, il bibliotecario non ha letto tutti i libri della biblioteca ma conosce il codice di classificazione Dewey: tanto basta per indicare con assoluta precisione dove reperire un determinato volume, anche ignorandone il contenuto. Questo metodo, pur con qualche limite, è tra i più promettenti per applicare gli agenti a informazioni non divulgabili.

Conclusioni

Non è difficile prevedere che le applicazioni business degli LLM diventeranno sempre più pervasive a mano a mano che aumenteranno le aziende che le adottano. In teoria, questo porterà a una esplosione del settore, ma ci sono due aspetti importanti di cui tenere conto.

Il primo è la crescente preoccupazione legata alla privacy e all’etica. Il cosiddetto AI Act, per cui si è raggiunto un accordo a fine novembre 2023 in UE e che sarà approvato nei primi mesi del 2024, dedica l’intero Titolo 1a ai “General purpose AI systems” tra cui gli LLM: le condizioni e le regole valgono non solo per chi commercializza questa tecnologia, ma anche per chi ne fa uso nelle proprie applicazioni, con sanzioni decisamente impattanti per i trasgressori. Con ogni probabilità, questo porterà a un rallentamento nell’adozione di LLM in azienda.

Il secondo aspetto riguarda invece la bolla speculativa che si è creata come avvenne decenni fa con le cosiddette “dot.com”: attratti dal facile guadagno, tanti si propongono come esperti ai potenziali clienti. Ma la storia insegna che alla fine resteranno solo gli esperti veri, che stanno investendo in persone e competenze e che sanno portare autentico valore.

I giochi sono aperti e le aziende dovrebbero seguire con grande attenzione questa tecnologia che può cambiare il modo in cui lavorano. Ma, una volta di più, sarà la scelta dei partner giusti a decretare il successo di ogni iniziativa.

Si ringrazia il prof. Diego Reforgiato dell’Università di Cagliari per la revisione scientifica.

Articoli correlati

Articolo 1 di 4