Apprendimento automatico nei processi, il rapporto McKinsey & Co.

Un approccio in quattro fasi che fornisce una roadmap per rendere operativo il ML su larga scala. A differenza dell'automazione di base basata su regole, in genere utilizzata per processi standardizzati e prevedibili, il machine learning può gestire processi più complessi e apprendere nel tempo, portando a maggiori miglioramenti in termini di precisione ed efficienza. [...]
Pierluigi Sandonnini

giornalista

machine learning
  1. Home
  2. Intelligenza Artificiale
  3. Apprendimento automatico nei processi, il rapporto McKinsey & Co.

L’apprendimento automatico mostra un enorme potenziale per aumentare l’efficienza dei processi. Ma generare valore reale e duraturo richiede molto più dei migliori algoritmi. Utilizzare il machine learning per automatizzare i processi, senza applicare gli approcci del passato. Ecco un approccio in quattro fasi che fornisce una roadmap per rendere operativo il ML su larga scala.

Apprendimento automatico, andare oltre la fase pilota

L’apprendimento automatico (machine learning, o ML) è uno strumento sempre più potente per guidare l’automazione. A differenza dell’automazione di base basata su regole, che viene in genere utilizzata per processi standardizzati e prevedibili, il machine learning può gestire processi più complessi e apprendere nel tempo, portando a maggiori miglioramenti in termini di precisione ed efficienza.

Molte aziende, però, sono bloccate nella fase pilota; possono aver sviluppato alcuni casi d’uso, ma faticano ad applicare il machine learning in modo più ampio o a sfruttare le sue forme più avanzate. Un recente sondaggio globale di McKinsey, ha rilevato che solo circa il 15% degli intervistati ha scalato con successo l’automazione in più parti dell’azienda. E solo il 36% degli intervistati ha dichiarato che gli algoritmi di machine learning sono stati implementati oltre la fase pilota.

Una sfida centrale è che la conoscenza istituzionale di un determinato processo è raramente codificata per intero e molte decisioni non sono facilmente distillate in semplici set di regole. Inoltre, molte fonti di informazioni fondamentali per il ridimensionamento del machine learning sono troppo di alto livello o troppo tecniche per essere utilizzabili. Ciò lascia i leader con poche indicazioni su come guidare i team attraverso l’adozione di algoritmi ML.

Il valore in gioco è significativo: integrando il ML nei processi, le organizzazioni leader stanno aumentando l’efficienza dei processi del 30% o più, aumentando al contempo i ricavi dal 5 al 10%. In un’azienda sanitaria, un modello predittivo che classifica i sinistri in diverse classi di rischio ha aumentato il numero di sinistri pagati automaticamente del 30%, diminuendo lo sforzo manuale di un quarto. Inoltre, le organizzazioni possono sviluppare processi scalabili e resilienti che sbloccheranno valore per gli anni a venire.

machine learning

Fonte: McKinsey & Co.

Quattro passaggi per rendere il machine learning più impattante

La tecnologia ML e i casi d’uso rilevanti si stanno evolvendo rapidamente. Per ridurre la complessità, le organizzazioni più avanzate stanno applicando un approccio in quattro fasi per rendere operativo il ML nei processi.

  • Creare economie di scala e competenze

Poiché i processi spesso si estendono su più business unit, i singoli team si concentrano sull’utilizzo del machine learning per automatizzare solo i passaggi che controllano. Questo di solito è un errore. Avere diversi gruppi di persone all’interno dell’organizzazione che lavorano sui progetti in modo isolato, e non durante l’intero processo, diluisce il business case complessivo per il ML e distribuisce risorse preziose in modo troppo sottile. Gli sforzi in silos sono difficili da scalare oltre una prova di concetto e gli aspetti critici dell’implementazione, come l’integrazione del modello e la governance dei dati, sono facilmente trascurati.

Piuttosto che cercare di applicare il ML a singoli passaggi di un processo, le aziende possono progettare processi più automatizzati end-to-end. Questo approccio sfrutta le sinergie tra elementi coerenti in più passaggi, come i tipi di input, i protocolli di revisione, i controlli, l’elaborazione e la documentazione. Ognuno di questi elementi rappresenta potenziali casi d’uso per le soluzioni basate su ML.

Ad esempio, diverse funzioni possono avere difficoltà con l’elaborazione di documenti (come fatture, reclami, contratti) o il rilevamento di anomalie durante i processi di revisione. Poiché molti di questi casi d’uso hanno somiglianze, le organizzazioni possono raggrupparli insieme come “casi d’uso archetipo” e applicare machine learning a loro in massa.

Raggruppare le iniziative di automazione in questo modo ha diversi vantaggi. Genera un ritorno sull’investimento più attraente per lo sviluppo ml. Consente inoltre al team di implementazione di riutilizzare le conoscenze acquisite da un’iniziativa per perfezionarne un’altra. Di conseguenza, le organizzazioni possono fare progressi più rapidi nello sviluppo di capacità e iniziative di ridimensionamento: si è scoperto che diverse iniziative erano basate sulla stessa tecnologia di elaborazione del linguaggio naturale, consentendo di risparmiare tempo nello sviluppo futuro di soluzioni simili.

  • Valutare le esigenze di capacità e i metodi di sviluppo
WHITEPAPER
L’IoT e i dati al servizio del risparmio energetico e di risorse: come si fa

I casi d’uso archetipici descritti nel primo passaggio possono guidare le decisioni sulle capacità di cui un’azienda avrà bisogno. Ad esempio, le aziende che si concentrano sul miglioramento dei controlli dovranno sviluppare funzionalità per il rilevamento delle anomalie. Le aziende che lottano per migrare verso i canali digitali possono concentrarsi maggiormente sull’elaborazione del linguaggio e sull’estrazione del testo.

Per quanto riguarda come costruire i modelli ML richiesti, ci sono tre opzioni principali. Le aziende possono:

  • costruire internamente modelli completamente su misura, dedicando tempo e capitale significativi a soluzioni su misura che soddisfino le loro esigenze uniche;
  • trarre vantaggio da soluzioni basate su piattaforma che utilizzano approcci a basso e nessun codice;
  • acquistare soluzioni puntuali per casi d’uso specifici, che è più facile e veloce ma richiede compromessi.

Decidere tra queste opzioni richiede la valutazione di una serie di fattori correlati, tra cui se un particolare set di dati può essere utilizzato in più aree e come i modelli ML si inseriscono in sforzi più ampi per automatizzare i processi. L’applicazione del ML in un processo transazionale di base, come in molte funzioni di back-office nel settore bancario, è un buon modo per fare progressi iniziali sull’automazione, ma probabilmente non produrrà un vantaggio competitivo sostenibile. In questo contesto, è probabilmente meglio utilizzare soluzioni basate su piattaforma che sfruttano le capacità dei sistemi esistenti.

  • Dare ai modelli una formazione “on the job”

Rendere operativo il ML è un processo incentrato sui dati: la sfida principale non è identificare una sequenza di passaggi da automatizzare, ma trovare dati di qualità che gli algoritmi sottostanti possano analizzare e da cui imparare. Questa può essere una questione di gestione e qualità dei dati, ad esempio quando le aziende hanno più sistemi legacy e i dati non vengono rigorosamente puliti e mantenuti in tutta l’organizzazione.

Tuttavia, anche se un’azienda dispone di dati di alta qualità, potrebbe non essere in grado di utilizzarli per addestrare il modello ML, in particolare durante le prime fasi della progettazione del modello. In genere, le distribuzioni si estendono su tre ambienti distinti e sequenziali: l’ambiente di sviluppo, in cui i sistemi vengono creati e possono essere facilmente modificati; un ambiente di test (noto anche come test di accettazione utente o UAT), in cui gli utenti possono testare le funzionalità del sistema ma il sistema non può essere modificato; e, infine, l’ambiente di produzione, in cui il sistema è attivo e disponibile su larga scala per gli utenti finali.

Anche se i modelli ML possono essere addestrati in uno qualsiasi di questi ambienti, l’ambiente di produzione è generalmente ottimale perché utilizza dati del mondo reale. Tuttavia, non tutti i dati possono essere utilizzati in tutti e tre gli ambienti, in particolare in settori altamente regolamentati o con problemi di privacy significativi.

In una banca, ad esempio, i requisiti normativi significano che gli sviluppatori non possono “giocare” nell’ambiente di sviluppo. Allo stesso tempo, i modelli non funzioneranno correttamente se vengono addestrati su dati errati o artificiali. Anche nei settori soggetti a una regolamentazione meno severa, i leader hanno comprensibili preoccupazioni sul lasciare che un algoritmo prenda decisioni senza la supervisione umana.

Per affrontare questa sfida, alcune organizzazioni leader progettano il processo in modo da consentire una revisione umana degli output del modello ML. Il team di sviluppo del modello stabilisce una soglia di certezza per ogni decisione e consente alla macchina di gestire il processo con piena autonomia in qualsiasi situazione che superi tale soglia. Questo approccio human-in-the-loop ha gradualmente permesso a un’azienda sanitaria di aumentare l’accuratezza del proprio modello in modo che entro tre mesi, la percentuale di casi risolti tramite l’elaborazione diretta sia passata da meno del 40% a oltre l’80%.

  • Standardizzare i progetti ML per la distribuzione e la scalabilità

L’innovazione, nell’applicazione del ML o di qualsiasi altro sforzo, richiede sperimentazione. Quando i ricercatori sperimentano, hanno protocolli in atto per garantire che gli esperimenti possano essere riprodotti e interpretati e che i fallimenti possano essere spiegati. La stessa logica dovrebbe essere applicata al ML. Un’organizzazione dovrebbe accumulare conoscenza anche quando gli esperimenti falliscono.

La guida giusta è in genere specifica per una particolare organizzazione, ma le best practice come MLOps possono aiutare a guidare qualsiasi organizzazione attraverso il processo. MLOps si riferisce a DevOps, la combinazione di sviluppo software e operazioni IT, applicato all’apprendimento automatico e all’intelligenza artificiale. L’approccio mira ad abbreviare il ciclo di vita dello sviluppo dell’analisi e aumentare la stabilità del modello automatizzando i passaggi ripetibili nei flussi di lavoro dei professionisti del software (inclusi ingegneri dei dati e data scientist).

Sebbene le pratiche MLOps possano variare in modo significativo, in genere comportano una serie di passaggi standardizzati e ripetibili per aiutare a scalare l’implementazione ml in tutta l’azienda e affrontano tutti i componenti necessari per fornire modelli di successo.

Mentre standardizzare la consegna è utile, le organizzazioni devono anche affrontare la componente delle persone, assemblando team dedicati e interfunzionali per incorporare il ML nelle operazioni quotidiane. La modifica delle strutture organizzative e la creazione di nuove funzionalità sono entrambe fondamentali per l’adozione su larga scala. L’azienda sanitaria ha creato un modello ML per esaminare fino a 400mila candidati ogni anno. Ciò significava che i reclutatori non avevano più bisogno di ordinare pile di applicazioni, ma richiedevano anche nuove funzionalità per interpretare gli output del modello e addestrare il modello nel tempo su casi complessi.

Conclusioni

Il machine learning è diventato uno strumento essenziale per le aziende per automatizzare i processi e molte aziende stanno cercando di adottare algoritmi ampiamente.

Più dati ci sono, meglio è.

A differenza dell’automazione basata su regole, che è altamente incentrata sui processi, il ML è incentrato sui dati. Un ritornello comune è che i tre elementi più importanti richiesti per il successo sono dati, dati e altri dati.

Pianifica prima di farlo.

L’entusiasmo per la promessa del ML può indurre i leader a lanciare troppe iniziative contemporaneamente, diffondendo risorse troppo sottili. Poiché il percorso ML contiene così tante sfide, è essenziale suddividerlo in passaggi gestibili. Pensa a casi d’uso archetipici, metodi di sviluppo e comprendi quali funzionalità sono necessarie e come ridimensionarle.

Pensa end-to-end.

Chiedere ai manager di funzioni in silos di sviluppare singoli casi d’uso può lasciare valore sul tavolo. È importante re-immaginare interi processi dall’inizio alla fine, scomponendo il modo in cui il lavoro viene svolto oggi e riprogettando il processo in un modo che sia più favorevole al modo in cui macchine e persone lavorano insieme.

C’è una chiara opportunità di utilizzare il ML per automatizzare i processi, ma le aziende non possono applicare gli approcci del passato. Invece, l’approccio in quattro fasi qui delineato fornisce una roadmap per rendere operativo il ML su larga scala.

WEBINAR
Spesa IT: come valutare i costi tecnologici, calcolare i rischi e ottimizzare gli investimenti?
Amministrazione/Finanza/Controllo
Finanza/Assicurazioni

*Tratto da “Operationalizing machine learning in processes”, di Rohit Panikkar, Tamim Saleh, Maxime Szybowski e Rob Whiteman di McKinsey & Company

FacebookTwitterLinkedIn