applicazioni

Business transformation con l’AI: le metriche di ROI in alcuni use case



Indirizzo copiato

Dalla classificazione dei dati ai casi d’uso concreti su e-commerce, customer care e documenti digitali; Luca Del Corso, portfolio enterprise professional services di TIM Enterprise, illustra le opportunità degli strumenti avanzati di AI

Pubblicato il 3 ott 2025



filiera italiana del software

La business transformation con l’AI si misura non solo nelle tecnologie adottate, ma nella capacità di renderle strumenti concreti per obiettivi aziendali misurabili. È su questo piano che si è concentrato l’intervento all’AI Talk del Politecnico di Milano di Luca Del Corso, Portfolio Enterprise Professional Services, TIM Enterprise. Del Corso ha delineato come l’intelligenza artificiale possa essere inserita nei processi delle imprese attraverso metodologie, classificazioni e casi d’uso già testati.

L’AI oltre il consumer: le sfide di adozione per le imprese

Luca Del Corso

Del Corso ha messo in luce la distanza tra l’AI percepita nel mondo consumer e le sue applicazioni effettive in ambito aziendale. «Google ci ha mostrato come tramite una foto si possa ricavare il prezzo delle noccioline», ha osservato, sottolineando però che «immaginare lo stesso principio nel business è molto più complicato».

Per superare questo divario, ha descritto due approcci distinti. Il primo, legato alla fase di consapevolezza, si sviluppa attraverso workshop che introducono ai clienti le differenze tra machine learning e Generative AI, mostrando demo capaci di avvicinare la tecnologia ai bisogni reali delle aziende. Il secondo approccio è invece più progettuale e viene adottato quando l’impresa ha già individuato un ambito di miglioramento su cui applicare l’intelligenza artificiale.

La classificazione dei dati come chiave progettuale

Uno degli assi portanti dell’intervento riguarda la classificazione dei dati. TIM Enterprise propone di partire non da tassonomie rigide, ma da due driver fondamentali: la tipologia dei dati a disposizione e gli obiettivi di business.

Le tipologie individuate sono tre:

  • i dati destrutturati, come email o testi liberi, possono essere trattati con strumenti di Machine Learning e Generative AI.
  • i dati strutturati, invece, consentono di lavorare con algoritmi predittivi più tradizionali e modelli ri-addestrabili.
  • i dati multimediali, spesso associati al mondo consumer, trovano spazio anche in processi aziendali, dal riconoscimento documentale all’analisi audio.

Dati destrutturati: dal prompt design ai virtual assistant

Gli esempi concreti mostrati da Del Corso hanno dato sostanza a questa impostazione. Un primo caso riguarda l’uso dei Large Language Model per generare descrizioni di prodotto a partire da recensioni e schede tecniche. Non un esercizio di creatività autonoma, ma un’applicazione in cui gli algoritmi eccellono nella summarization, producendo testi coerenti e affidabili quando basati su contenuti già disponibili.

Un altro progetto ha riguardato la classificazione automatica delle email ricevute tramite PEC da parte di un cliente. In questo caso il machine learning ha consentito di strutturare messaggi relativi a disdette, reclami e contestazioni, generando ticket automaticamente e allegando template di risposta calibrati sulle problematiche.

Qui la Generative AI è stata integrata in un sistema RAG (Retrieval-Augmented Generation), che forniva suggerimenti alle persone incaricate di gestire le richieste.

Sempre in ambito destrutturato, Del Corso ha citato i virtual assistant: non semplici chatbot capaci di rispondere a ogni domanda, ma sistemi basati su flussi conversazionali progettati per guidare l’utente verso azioni specifiche, come la prenotazione di un servizio o l’iscrizione a un bando.

L’uso di strumenti come Dialog Flow CX combinati con modelli di ricerca documentale su Vertex AI ha reso possibile anche la traduzione automatica delle domande degli utenti in query SQL, facilitando la consultazione di database complessi.

Dati strutturati: dynamic pricing e anomaly detection

Nel passaggio ai dati strutturati, l’attenzione si è spostata su applicazioni a forte impatto economico. Il caso più immediato è quello del dynamic pricing: attraverso algoritmi di machine learning, un portale e-commerce è stato in grado di modulare i prezzi in base a KPI predefiniti, simulando strategie simili a quelle utilizzate nel settore aereo. A supporto, sono stati condotti A/B test per verificare la propensione all’acquisto in fasce orarie diverse.

Accanto a questo esempio, Del Corso ha citato modelli di fraud detection e di anomaly detection, sviluppati in contesti come la distribuzione di carburante e il cloud computing. L’uso di tecniche di time series forecasting ha permesso di identificare pattern ricorrenti e anomalie nei consumi o nei comportamenti di pagamento, contribuendo a ridurre rischi e a prevedere variazioni significative della domanda.

Dati multimediali: OCR evoluto, e-commerce e sentiment analysis

La categoria dei dati multimediali ha offerto una panoramica diversificata di applicazioni. Una prima riguarda il riconoscimento documentale. Qui le reti GAN (Generative Adversarial Network) sono state utilizzate per migliorare la qualità delle scansioni, permettendo all’OCR di leggere con precisione anche testi scritti a mano o documenti sporchi. Una soluzione che ha trovato ampio utilizzo nella digitalizzazione delle bolle di trasporto, dove applicazioni mobile consentono agli operatori di fotografare i documenti e integrarne i dati nei sistemi gestionali.

Sempre sul fronte e-commerce, è stato sperimentato il riconoscimento di dettagli negli indumenti fotografati, come colletti o righe, così da rendere più avanzata la ricerca di prodotti nei portali online. Un’applicazione che arricchisce i cataloghi con metadati difficilmente inseriti manualmente.

Infine, l’analisi audio ha mostrato come sia possibile intervenire sul customer care. Attraverso modelli di sentiment analysis, le registrazioni delle conversazioni hanno permesso di identificare escalation di tono, soprattutto da parte degli operatori, e di monitorare il rispetto delle comunicazioni obbligatorie nei contatti outbound. Il sistema ha prodotto ranking delle performance basati su parole chiave e analisi del sentiment, generando indicatori utili per la gestione del servizio.

Dal PoC al ROI: misurare il valore dei progetti AI

Nella parte finale del suo intervento, Del Corso ha illustrato il metodo con cui TIM Enterprise propone alle aziende di passare dalle sperimentazioni ai progetti operativi. L’approccio prevede una fase di discovery, seguita da pilota o Proof of Concept (PoC), fino al rilascio in produzione. Durante questo percorso vengono definiti i KPI da raggiungere e stimato il ritorno di investimento.

La misurazione si basa sul confronto tra TCO (Total Cost of Ownership) e ROI, sia diretto che indiretto. Se il ROI diretto può essere calcolato in termini economici, quello indiretto riguarda aspetti come l’esperienza utente o la reputazione del brand.

Per chiarire la metodologia, Del Corso ha portato l’esempio di un progetto di customer care: un assistente virtuale vocale collegato al canale telefonico ha gestito automaticamente il 5% delle prenotazioni, consentendo di ridurre il numero di operatori necessari da 305 a 288, senza ricorrere a tagli occupazionali.

Un risultato che, secondo il relatore, ha garantito un ritorno misurabile e immediato.

Articoli correlati