I modelli di business contemporanei sono basati su orizzonti estremamente corti, magari di pochi mesi. Qualunque tecnologia in grado di allontanare la nebbia conoscitiva (dissolverla completamente sarebbe un desiderio utopico) diventa oggetto di interesse da parte delle organizzazioni che intendono avere successo.
Un candidato di valore, con un curriculum di successi, porta il nome di algoritmi predittivi.
Cosa sono gli algoritmi predittivi
L’assunzione alla base degli algoritmi predittivi è che la conoscenza dell’interrelazione tra le variabili che governano un fenomeno permette, con appositi modelli matematici, la previsione del fenomeno. In termini di business analytics significa ottenere informazioni per ottimizzare gli approvvigionamenti di materie prime, le catene di montaggio, il personale, la distribuzione, il marketing, ecc., valorizzando le risorse limitate di cui si dispone, prima fra tutte il denaro.
Non si produce visibilità però con la sola conoscenza delle variabili. Alla base degli algoritmi predittivi vi è la raccolta storica, esaustiva e ordinata, dei dati inerenti alle variabili. Non solo dati del dominio “controllabile” del proprio business, ma anche informazioni sugli aspetti non controllabili come la reazione del mercato nei confronti dei propri prodotti.
Il successo di vendita, per esempio, di un modello di sneaker della categoria fashion sportswear in autunno potrebbe essere legato al successo di un modello della categoria running durante la stagione estiva. I pattern seguiti dall’acquirenti in estate potrebbero infatti interessare diverse categorie di prodotti su un periodo temporale ampio. Essere in grado di analizzare queste variabili potrebbe dare la capacità di prevedere a inizio estate quanta materia prima servirà approvvigionare per alcuni modelli di prodotti autunnali.
Come funzionano gli algoritmi predittivi
Gli algoritmi predittivi non sono una etichetta figlia dell’hype dell’AI, ma piuttosto una metodologia con una storia, di cui l’AI è uno dei tanti meccanismi usati. A seconda dei casi si possono impiegare tecniche matematiche consolidate, provenienti dall’ambito statistico, oppure usare procedimenti di machine learning o fare riferimento agli immancabili metodi di intelligenza artificiale.
Quali sono i principali tipi di algoritmi predittivi
Quando la relazione tra le variabili è di tipo lineare si può impiegare la regressione lineare, semplice o multipla a seconda del numero di variabili. Questo metodo ha il vantaggio di essere consolidato, quasi due secoli di storia e molto ben conosciuto. Se la relazione non è invece di tipo lineare si può impiegare la metodologia della regressione polinomiale.
Questi metodi possono essere implementati con strumenti IT tradizionali, facilmente disponibili a un vasto pubblico di utilizzatori, anche presso piccole realtà. Le conoscenze di modellazione e di sviluppo sono alla portata di un numero elevato di professionisti. Si tratta di un buon modo per approcciarsi agli algoritmi predittivi.
Se la quantità di variabili da considerare è ampia si può ricorrere a tecniche più raffinate come il machine learning. Questa branca dell’AI impiega diversi algoritmi allo scopo di “imparare” relazioni nei dati forniti in fase di apprendimento. In fase di produzione si potranno classificare automaticamente i dati in arrivo dal mondo reale o produrre previsioni. È possibile rendere i dati “azionabili” e fare in modo che il sistema prenda decisioni automaticamente in base alla fisionomia dei dati che riceve dal mondo esterno.
Questo tipo di applicazione richiede un ambiente IT più specializzato, un ampio set di dati di training e personale con competenze specifiche. La fase di training richiede know-how per essere eseguito in modo ottimale, soprattutto nelle valutazioni di efficacia post-training. Vi sono infatti sessioni di training che potrebbero portare a modelli troppo adatti ai set impiegati e scarsamente capaci di operare con i dati “live”.
Salendo nella scala di complessità, se le relazioni sono molto intricate, se vi è una quantità molto grande di dati necessari per il training e se il volume di dati cresce costantemente, si può optare per le reti neurali.
Si tratta di un campo di ricerca nato intorno agli anni ‘60 del secolo scorso con l’intento di replicare il cervello umano tramite reti neuronali artificiali. L’obiettivo dichiarato era comprendere il funzionamento della struttura più complessa conosciuta e replicarne le capacità. Questo movimento ha prodotto molta letteratura scientifica di alto valore e, negli anni recenti, con la diffusione di unità di calcolo specifiche, ha permesso la rivoluzione a cui stiamo assistendo oggi.
Vi sono molte modalità con cui è possibile costruire le reti neurali, anche con approcci “dinamici” dove il sistema cambia per migliorarsi e seguire le specificità del proprio ambito di business nel tempo.
L’introduzione di reti neurali in azienda non è semplice. Servono strumenti hardware e software specifici, con un impatto di costo significativo e personale con competenze in ambito AI. Si tende per questo motivo a demandare lo sviluppo di una soluzione predittiva di tipo AI a società specializzate esterne, in grado di lavorare sui dati iniziali, creare i set di training, realizzare la rete neurale e implementare un’interfaccia utente per l’utilizzo da parte del personale aziendale.
L’impatto degli algoritmi predittivi sul business
Vi sono molti scenari di business che possono essere analizzati con strumenti previsionali e trasformati da una modalità passiva, di analisi a posteriore dei fenomeni aziendali a un approccio attivo, dove il flusso in tempo reale delle informazioni disegna tendenze e previsioni. Questo permette di intraprendere decisioni mentre il fenomeno aziendale si sta verificando, per adattarsi alla realtà.
Vi sono molti casi d’uso interessanti, alcuni dei quali elencati qui di seguito:
Previsioni di vendita e ottimizzazione dell’inventario
É possibile monitorare in tempo reale le performance di vendita dei prodotti nei punti vendita fisici e on-line e regolare i processi di approvvigionamento delle materie prime e delle lavorazioni in anticipo, secondo il modello previsionale. Si può così evitare di creare giacenze per prodotti a bassa richiesta o viceversa scongiurare l’indisponibilità di un prodotto con richiesta inaspettata.
Questi metodi sono particolarmente utili nel caso in cui le materie prime siano deperibili e/o soggette a stagionalità. Il settore alimentare e della ristorazione può trarre grandi benefici da questi metodi nella riduzione degli sprechi.
Personalizzazione dell’esperienza cliente
La raccolta di informazioni in merito all’uso di un ambiente on-line permette di tracciare dei pattern di comportamento, con particolare attenzione al comportamento finale di acquisto. Si possono così individuare gli aspetti che stimolano o che rallentano il click finale. Questa visibilità risulterà utile per modificare l’ambiente on-line intorno all’utente e migliorare l’appetibilità.
Si può inoltre comprendere il gusto dell’utente per consigliare prodotti. È un caso d’uso significativo in siti con un catalogo molto ampio, difficile da esplorare nel tempo dedicato all’acquisto.
Allargando la scala temporale si può ottenere conoscenza del gusto complessivo del proprio pubblico e indirizzare la fisionomia di nuovi prodotti futuri.
Rilevamento delle frodi e gestione del rischio
L’ambito delle rilevazioni frodi, per esempio durante emissioni di bonifici in piattaforme di home banking oppure nella denuncia di sinistri alle assicurazioni, è uno dei settori in cui più si sperimentano gli algoritmi predittivi. I tracciati comportamentali di azioni criminali subite in passato possono allenare modelli capaci di individuare tentativi di crimine in tempo reale ed azionare un blocco del bonifico o della richiesta di assicurativa, nonché produrre una segnalazione per ulteriori accertamenti sul caso.
Manutenzione predittiva
I macchinari business-critical e mission-critical sono dotati di centraline per il monitoraggio dello stato dei componenti e per la registrazione dello stato di funzionamento. La raccolta storica di questi dati, abbinata a registrazioni dei guasti, può essere impiegata da sistemi previsionali per richiedere una manutenzione prima che un guasto avvenga in modo impattante. Questo permette di ridurre i fermi macchina e rivedere le tabelle temporali per la sostituzione precauzionale dei componenti, allo scopo di prolungare in sicurezza la vita operativa e ridurre i costi.
Sviluppo di nuovi prodotti e servizi
Il tema della proposizione di nuovi prodotti e servizi acquista un significato di tutt’altro ordine grazie alle metodologie predittive. Il modo in cui gli utenti hanno usato i prodotti di generazioni precedenti e soprattutto le modalità e i tempi in cui gli utenti hanno scelto di fare upgrade e sostituzioni, offrono indicazioni preziose per calibrare il ciclo di vita dei nuovi modelli. Queste informazioni potranno poi alimentare altri sistemi previsionali aziendali e ottenere, per esempio, proiezioni in tempo reale degli utili su diverse finestre temporali.
Sfide e limiti degli algoritmi predittivi
Gestire il business attraverso strumenti moderni di analisi e previsione richiede una revisione della modalità con cui si raccolgono le informazioni. I dati cioè devono smettere di essere un sottoprodotto delle attività svolte quotidianamente, raccolti e conservati per mere esigenze di legge o di “logging”, senza magari eccessiva attenzione per la loro qualità. I dati devono essere parte del processo di produzione.
Nello stesso modo in cui si studiano le caratteristiche dei prodotti o dei servizi erogati, si deve studiare con precisione quali informazioni è necessario raccogliere, in quali punti del processo e con quale frequenza.
La raccolta deve passare al vaglio del controllo qualità interno per sincerarsi che siano omogenei e continui nel tempo. Si deve avere la certezza che ogni analisi storica sia svolta su informazioni equivalenti, con lo stesso grado di contenuto informativo.
Qualità dei dati e bias
I dati devono inoltre essere privi di condizionamenti. I cosiddetti bias.
Questo termine è spesso considerato in modo erroneo, relegandolo ai trattamenti di dati personali. Non si considera che anche le raccolte di informazioni su entità non umane, come manufatti, possono essere soggette a preconcetti impattanti. Per esempio, si potrebbero omettere dalla raccolta informazioni che non sembrano rilevanti (bias di omissione) oppure raccogliere con maggiore frequenza informazioni che confermano un fenomeno (bias di conferma) oppure concentrarsi solo su particolari momenti o su determinati gruppi di informazioni (bias di selezione) oppure non raccogliere dati sufficienti da essere statisticamente rappresentativi (bias di campionamento).
L’elenco potrebbe proseguire ancora per molte righe.
È molto difficile essere immuni da fenomeni di bias. Per questo motivo è importante documentare le modalità con cui è stata concepita la raccolta delle informazioni, quali tipi di dati sono stati scelti e con quali modalità sono raccolti. In seguito, risulterà possibile individuare carenze o errori in fase di progettazione e porvi rimedio in modo ragionato.
Implementare un ambiente con dati di qualità, (possibilmente) privi di bias è una sfida interessante, comparabile all’impegno necessario all’interpretabilità dei modelli che fanno uso di questi dati. La vera questione è possedere la capacità di spiegare le ragioni per cui i modelli predittivi hanno generato un determinato output a partire dagli input forniti.
L’operazione può risultare semplice nel caso si impieghino modelli matematici come la regressione, facilmente gestibile da personale qualificato.
Interpretabilità dei modelli
Quando si impiegano modelli moderni, come per esempio le reti neurali, il problema acquista un diverso ordine di complessità. Le reti potrebbero essere densamente connesse, con un numero elevato di layer oppure si potrebbero impiegare modelli pre-allenati molto ampi, di cui si hanno conoscenze limitate. Perfino gli specialisti del settore hanno difficoltà a tracciare lo stato interno dell’ambiente e comprendere le modalità con cui sono stati generati gli output.
È molto importante avere coscienza di questo limite quando si impiegano strumenti evoluti.
Il settore sta lavorando intensamente per affrontare il problema dell’osservabilità. Esistono già strumenti specifici per migliorare la comprensione dei modelli e il loro funzionamento, e sicuramente, con il tempo, verranno introdotti metodi ancora più solidi ed efficaci.
Privacy e etica
Un progetto di trasformazione digitale che integra algoritmi predittivi richiede non solo esperti di dati, modellazione e programmazione, ma anche la presenza di una figura competente in aspetti di sicurezza e compliance in ambito IT. IT inteso nell’accezione moderna, fatta non solo di sistemi ma soprattutto di dati.
Questa figura, tipicamente il CISO, deve presidiare l’eventuale raccolta di dati che riguardano le persone, garantendo il rispetto di GDPR e delle norme a tutela dei lavoratori. Deve conoscere anche le direttive e i regolamenti emanati dall’Unione Europea incidenti sul progetto, come per esempio NIS2 e AI Act.
Progetti ampi con impatto su un numero elevato di persone dovrebbero poi essere sottoposti ad una analisi etica, per sondare i confini dell’iniziativa predittiva e verificare eventuali ripercussioni inaccettabili.
Costo e complessità dell’implementazione
Questa breve dissertazione sta evidenziando un livello di complessità alto, che non traspare nell’hype riversato sui social o nella stampa non specialistica. Ripensare un business consolidato in una modalità predittiva richiede investimenti e cambiamenti su tutti i livelli aziendali e l’adozione di nuove figure professionali di valore. Il costo economico e umano di una simile operazione non è trascurabile.
È fondamentale una fase progettuale accurata per non diventare vittime dell’entusiasmo e caricare l’azienda di costi non preventivati e poi mancare l’obiettivo.
Il futuro degli algoritmi predittivi
Interrogarsi sul futuro degli algoritmi predittivi è arduo. Sebbene le teorie che li guidano abbiano radici che risalgono a decenni o secoli fa, il loro utilizzo pratico su vasta scala è un fenomeno relativamente recente, conseguenza della recente disponibilità di processori specifici ad alte prestazioni. Si stanno quindi evidenziando solo ora i limiti e problemi pratici di questi metodi.
Tendenze emergenti
Uno dei passi più importanti sarà migliorare l’interpretabilità e l’osservabilità dei modelli. Solo in questo modo si potranno valutare in modo rigoroso gli output e avere una reale governance dei dati in contesti predittivi.
Un altro versante ricco di interesse è l’automazione dei processi di gestione dei dati, diminuendo la necessità di avere personale con formazione matematica, come per esempio AutoML.
Sempre nell’ambito dei dati, c’è molto lavoro da fare nell’ambito della privacy. Per evitare l’uso di archivi di informazioni personali nelle fasi di training, se pur anonimizzati, si potrebbero impiegare dati sintetici, che riproducono la distribuzione statistica dei dati di cui si ha bisogno, senza impiegare dati reali. Questo ridurrebbe inoltre i rischi legati al mantenimento dei dati di training all’interno della propria rete per gli scopi di governance e compliance normativa.
Impatto sull’occupazione
Non si può naturalmente tralasciare la valutazione dell’impatto sull’occupazione. L’automazione dei processi dovrà essere accompagnata da strategie per impiegare le persone impattate e indirizzarle in differenti ruoli aziendali. Non si può certamente parlare di equilibri etici e di cultura dei valori se la trasformazione digitale in chiave predittiva ha come epilogo la svalutazione delle persone.
Fortunatamente esiste anche una simmetria virtuosa data dalla necessità di nuove competenze oppure dalla rivalutazione di alcuni percorsi formativi. È estremamente positivo che lauree legate alla matematica siano oggi considerate di alto valore, con sbocchi lavorativi molto più ampi rispetto a un passato neanche troppo lontano.
Opportunità di investimento
Si stanno aprendo enormi opportunità. La promessa di una maggiore visibilità del business, nel momento in cui avviene, sta stimolando importanti investimenti, oggi presso grandi e medie imprese, in seguito a cascata sugli operatori più piccoli. Questo comporterà nuovi posti di lavoro qualificati, nuove aziende che fioriscono nel nascente settore dei dati, vendite significative di hardware specializzato per macinare i numeri, ricerca di competenze sistemistiche per legare hardware, software e idee, esigenze di compliance da sviluppare in chiave nuova e tanta etica da sviluppare e applicare per guidare questo momento di cambiamento.