Nel ristorante Pizza Hut di Plano, in Texas, i clienti possono ordinare parlando con un sistema di intelligenza artificiale. Gli algoritmi stabiliscono le priorità in cucina, sintetizzano i feedback online e aiutano i nuovi addetti a dosare gli ingredienti. Lo stesso approccio è in corso da Taco Bell, negli Usa, ma nel drive-through automatizzato.
Sono due laboratori di innovazione sul fronte più delicato per l’uso dell’AI. La gestione dei rapporti con i clienti. L’AI generativa sta già automatizzando il back office, con spesso un human in the loop. Ma se riesce ad automatizzare anche la prima linea allora è segno di un vero cambiamento. Ancora in corso, però, e irto di errori. Vediamo cosa si può imparare.
Indice degli argomenti:
Perché il fast food è un buon banco di prova
Catene come Pizza Hut e Taco Bell operano con margini ridotti, flussi standardizzati e forte turnover del personale. Questo rende appetibile qualsiasi tecnologia capace di ridurre errori, tempi morti e costi di formazione.
Nei ristoranti di Yum! Brands (che detiene entrambi i marchi) l’AI viene usata soprattutto per:
- prendere ordini vocali con modelli linguistici specializzati;
- ottimizzare le sequenze di preparazione;
- analizzare recensioni e commenti sui social;
- supportare il personale con chatbot interni.
Sono applicazioni circoscritte, costruite su processi ripetitivi e regole chiare. Proprio per questo, spiegano i manager coinvolti, il rischio di errori gravi è più controllabile rispetto ad altri settori.

I vantaggi: efficienza e integrazione nel lavoro reale
Il primo beneficio è organizzativo. L’AI riduce il carico cognitivo su mansioni semplici ma frequenti, come la presa degli ordini o la gestione delle scorte. Nei ristoranti con personale inesperto, un assistente digitale può sostituire settimane di affiancamento.
C’è poi un tema di integrazione. Cameron Davies, responsabile AI di Yum! Brands, osserva che gli strumenti funzionano solo se si inseriscono nel flusso quotidiano di lavoro. Sistemi troppo invasivi o scollegati dalle routine vengono ignorati, anche se tecnicamente validi. È una lezione emersa anche in altri contesti aziendali. C’è un beneficio meno visibile: la formazione. Un assistente interno riduce l’effetto del turnover sul livello di qualità.
I rischi: errori, fiducia e aspettative sbagliate
Accanto ai benefici emergono limiti strutturali. I modelli linguistici possono “allucinare”, cioè fornire risposte plausibili ma sbagliate. Per questo Yum! Brands utilizza modelli più piccoli e specializzati per il voice ordering: meno conoscenza generale, meno margine di errore. L’altro limite è organizzativo: l’AI accelera una fase (presa ordine), ma può spostare il collo di bottiglia altrove (cucina, consegne, cassa). Se non cambi processo e staffing, il vantaggio si assottiglia.
C’è poi il rischio umano. I dipendenti possono temere che l’uso dell’AI renda visibile la sostituibilità del loro lavoro. Questo frena l’adozione spontanea. Secondo Ethan Mollick, docente alla Wharton School, senza un clima di fiducia gli strumenti restano sottoutilizzati o usati di nascosto.
Infine, c’è un problema di aspettative. I dati mostrano che, nonostante una diffusione ampia dell’AI nelle imprese occidentali, la maggioranza dei manager non registra ancora un aumento misurabile della produttività. Nel fast food l’impatto è reale, ma incrementale.
Vediamo altri casi notevoli.
Klarna: l’assistente che assorbe le richieste ripetitive (e la questione “700 agenti”)
Il caso Klarna è diventato un simbolo perché l’azienda ha comunicato numeri molto forti: l’assistente AI avrebbe gestito due terzi delle chat di customer service nel primo mese, con 2,3 milioni di conversazioni; avrebbe svolto l’equivalente del lavoro di 700 addetti a tempo pieno; e avrebbe ridotto le richieste ripetute del 25%, portando i tempi medi di risoluzione sotto i due minuti (contro 11).
Cosa fa in concreto l’assistente di Klarna
L’assistente lavora su attività tipiche di un servizio clienti pagamenti: chiarimenti su pagamenti, dispute, rimborsi, consegne/reso nell’ecosistema e-commerce, stato delle pratiche. È “app-based”, quindi parte avvantaggiato: molte informazioni utili (account, cronologia, contesto) sono già nel perimetro digitale.
I vantaggi, se i numeri stanno in piedi
Qui l’effetto non è solo sui costi: è sulla disponibilità e sulla velocità. Se una quota alta di domande è standard (dove vedo la rata, come cambio metodo di pagamento, cosa significa questa voce), l’AI può evitare code e alleggerire i team umani, che diventano “secondo livello”.
I limiti da tenere in vista
Questi risultati sono in larga parte dichiarazioni aziendali: sono importanti, ma vanno letti sapendo che mancano spesso audit indipendenti su metrica e qualità. Fonti giornalistiche hanno riportato il caso enfatizzando anche l’elemento “hype” legato a strategia e narrativa da IPO.
Il problema operativo tipico, in questi progetti, è l’edge case: quando una pratica esce dalla casistica standard (contestazione complessa, frode sospetta, vincoli normativi), l’AI deve smettere di “provare a risolvere” e deve instradare. Se insiste, aumenta i contatti ripetuti e peggiora la soddisfazione. Non sempre, dall’esterno, è chiaro quanto bene regga questa parte.
Vodafone: SuperTOBi, più comprensione del linguaggio ma stessa sfida sull’escalation
Nel 2024 Vodafone ha presentato SuperTOBi come evoluzione del bot esistente (TOBi), già attivo in vari Paesi. La promessa è gestire richieste più complesse perché il sistema interpreta frasi intere e contesto meglio dei chatbot tradizionali; è basato su modelli di AI generativa (Vodafone cita l’uso tramite Azure OpenAI) e viene rilasciato in più mercati europei.
Cosa fa in concreto l’assistente di Vodafone
Un assistente telco tipicamente copre: stato della linea, supporto su modem e rete, fatture e pagamenti, cambio piano, roaming, SIM e eSIM, pratiche standard. SuperTOBi punta ad ampliare la quota di richieste risolte in chat senza passaggi intermedi, cioè senza “menu a scelta multipla” e senza frasi rigide.
Vantaggi
Il valore è soprattutto sulla prima risposta: ridurre attesa e frizione. Nelle telco i contatti esplodono su picchi (guasti, aggiornamenti di rete, campagne). Un assistente migliore regge quel carico senza moltiplicare call center.
Limiti
Le telco sono piene di casi “sensibili”: contestazioni, disdette, portabilità, errori di fatturazione. Qui l’AI non può improvvisare: deve attenersi a regole e deve avere un passaggio pulito a un umano, altrimenti il cliente percepisce il bot come un muro. Il rischio reputazionale, in questo settore, arriva più dal tono e dalla procedura che dalla tecnologia.
Air India: AI.g e l’assistenza su WhatsApp, più “agentic” per la prenotazione
Nel viaggio l’AI serve due bisogni diversi: assistenza clienti e conversione (prenotare più in fretta). Air India ha lavorato su entrambi.
AI.g (ex “Maharaja”) come assistente clienti
Un case study Microsoft racconta la creazione di AI.g su Azure OpenAI per gestire richieste con “speed, accuracy, empathy”, con l’obiettivo dichiarato di modernizzare l’esperienza senza aumentare i costi. Fonti di settore riportano volumi dell’ordine di milioni di query e un uso quotidiano consistente, con percentuali di accuratezza dichiarate.
eZ Booking: l’AI che “fa da agente”
Nel 2025 Air India ha annunciato eZ Booking, un sistema descritto come “agentic ai” che permette di completare una prenotazione con meno passaggi: l’utente descrive l’itinerario e il sistema costruisce una proposta e guida i comandi sul sito. Qui non è solo Q&A: è esecuzione di un compito digitale.
Vantaggi
Nel travel i picchi di contatto sono violenti (ritardi, riprotezioni, scioperi) e le informazioni cambiano di continuo. Un assistente digitale può reggere volumi e offrire disponibilità 24/7. Sul booking, ridurre passaggi aumenta conversione.
Limiti
Il settore è pieno di eccezioni: tariffe, vincoli, documenti, rimborsi, casi personali. Se l’assistente dà un’informazione sbagliata o presenta come certa una regola che non lo è, il danno è immediato. Per questo qui contano due cose: accesso a dati aggiornati e governance sul linguaggio (“posso aiutarti a verificare”, non “è così”).
Iberia: Iberia GPT, più ispirazione e pianificazione che assistenza “hard”
Nel 2025 Iberia ha lanciato Iberia GPT nel GPT Store di ChatGPT come canale conversazionale per aiutare a pianificare viaggi: suggerimenti di destinazioni, ricerche flessibili, raccomandazioni per budget, itinerari multi-tratta. L’azienda lo presenta come un canale di “ispirazione e pianificazione” più che un help desk tradizionale.
Vantaggi
Qui l’AI lavora “a monte”: accorcia la distanza tra idea e scelta, soprattutto per clienti indecisi o flessibili. È un uso meno rischioso rispetto a rimborsi e reclami, perché riguarda decisioni esplorative.
Limiti
L’errore tipico non è la risposta completamente inventata, ma l’aspettativa: se l’assistente propone combinazioni poco realistiche (prezzi, disponibilità, vincoli) e poi il cliente si schianta nella fase di acquisto, la fiducia cala. In pratica: l’AI deve essere brava a dire “posso suggerire, ma va verificato”.
Bank of America: Erica, il caso in cui la casistica è chiara e la verifica è semplice
Erica è uno dei casi più longevi e misurati: la banca ha comunicato il superamento di 2 miliardi di interazioni nel 2024 e poi 3 miliardi nel 2025, con decine di milioni di utenti e milioni di interazioni al giorno. Reuters e comunicazioni aziendali descrivono un assistente che supporta operazioni bancarie standard (trasferimenti, pagamenti bollette, gestione account) e anche funzioni legate a Merrill (trade e monitoraggio investimenti).
Perché funziona
In banca molte richieste hanno regole e controlli: o il bonifico parte o non parte; o il saldo torna o non torna. La qualità è più verificabile che in compiti “soft”. Inoltre l’assistente è dentro un ecosistema autenticato: meno ambiguità sul cliente e più contesto disponibile.
Limiti
Quando l’AI entra nell’area “consulenza” (cosa conviene fare), scattano vincoli legali e reputazionali: serve chiarezza su ciò che è informazione e ciò che è raccomandazione. La maturità, qui, non è solo tecnica: è di compliance e design delle risposte.
Amazon: Rufus e il confine tra aiuto e persuasione
Rufus è l’AI shopping assistant di Amazon, presentato come strumento per fare domande in linguaggio naturale, confrontare prodotti e ricevere suggerimenti. Nel 2025 Amazon ha descritto funzionalità più “operative”: cercare prodotti per attività/uso, trovare offerte, verificare prezzo, fino ad aggiungere articoli al carrello e gestire liste.
Vantaggi
L’AI riduce la fatica della scelta: per molte categorie l’utente non vuole leggere 30 schede e 200 recensioni. Un riassunto ben fatto e un confronto ragionato possono migliorare conversione e soddisfazione.
Limiti
Qui la fiducia è fragile per definizione: Amazon vende, quindi ogni consiglio “sembra interessato”. Se l’assistente appare troppo orientato a spingere prodotti o non spiega bene da dove arrivano le informazioni (schede, recensioni, ads, marketplace), il rischio è perdere credibilità. In più, nel retail l’AI può semplificare troppo: ridurre a tre pro/contro prodotti che hanno differenze sottili.
Cosa accomuna i casi
Nei fatti, questi progetti hanno l’obiettivo di chiudere più richieste al primo contatto senza aumentare errori.
Dai casi emergono quattro condizioni ricorrenti:
- Compiti stretti e regole chiare (ordini, pagamenti, query standard).
- Dati buoni e aggiornati: senza integrazione con sistemi reali, l’AI diventa un generatore di testo.
- Escalation facile: quando la casistica esce dallo standard, l’AI deve passare la mano.
- Misurabilità corretta: tempi di risoluzione, ripetizione dei contatti, reclami, costo per ticket, non “quante persone usano il bot”.
I limiti emergono quando l’AI viene caricata di ruoli vaghi, o usata come barriera tra cliente e azienda. L’automazione non migliora il servizio per definizione. Lo migliora solo se riduce frizioni senza spostare i problemi più avanti nel percorso del cliente. È su questo equilibrio, più che sulla potenza dei modelli, che si gioca la partita nei prossimi anni.






