Machine learning supervisionato: imparare dal passato per prevedere il futuro

Gli algoritmi di machine learning supervisionato permettono di individuare schemi di relazioni passate che con alta probabilità si presenteranno nuovamente nel futuro

Pubblicato il 14 Ott 2020

machine learning supervisionato

In un contesto digitale sempre più affermato il termine machine learning è ormai diventato di uso comune. L’utilizzo di algoritmi matematici per risolvere problemi complessi o interpretare fenomeni non direttamente osservabili è oggi una best practice per le digital strategy in tutti i principali mercati. Spesso usato come sinonimo di intelligenza artificiale, il machine learning è un ramo di tale scienza. Il professor Tom M. Mitchell del dipartimento di Machine Learning della Carnegie Mellon University la descrive così: “Machine learning is the study of computer algorithms that allow computer programs to automatically improve through experience”. Per questo motivo possiamo considerare il machine learning come uno dei modi per rendere realizzabili applicazioni di intelligenza artificiale. Nell’ambito del machine learning, inoltre, è possibile identificare e classificare diverse tecniche di applicazione. Una delle principali tecniche è quella degli algoritmi supervisionati, ovvero quelle tecniche che permettono di costruire un algoritmo intelligente in grado di addestrarsi nel comprendere e prevedere un determinato output a partire dallo studio di input che lo descrivono (vedi immagine sotto). Si parla quindi di machine learning supervisionato.

Ogni informazione passata in input all’algoritmo di machine learning viene analizzata nelle sue dipendenze, lineari e non lineari, rispetto a un output (spesso definito target o label) affinché la macchina impari a riconoscere uno schema di classificazione delle informazioni. Una volta individuato tale schema è possibile applicare a ulteriori informazioni di input che non presentano una label nota a priori; tale applicazione permette di fare una previsione e associare agli input l’output più probabile.

Negli ultimi anni tali modelli si sono sempre più affermati come strumenti di uso comune all’interno delle diverse funzioni aziendali: Marketing, HR, Credito, Compliance, Audit, Finance, Operation e IT sono tutte funzioni che possono beneficiare del potere predittivo per efficientare processi o renderli più efficaci.

Tecniche algoritmiche come Random Forest, Gradient Boosting, modelli Bayesiani o Reti neurali fino a qualche anno fa richiedevano grandi risorse e un dispendio di tempo davvero importante per addestrare questi modelli; oggi invece ne è possibile un utilizzo massivo grazie alla forte espansione di sistemi Cloud che mettono a disposizione dei Data scientist risorse evolute di calcolo computazionale.

Le potenzialità di una metodologia algoritmica: use case cross-settore

Il machine learning supervisionato è quindi un approccio algoritmico-metodologico che è possibile applicare ogni qual volta si sia in grado di descrivere una unità statistica (es. cliente, dipendente, paziente, ecc.) attraverso una serie di indicatori ed osservarne un comportamento oggettivo.

Alcuni esempi di applicazione li possiamo trovare nei seguenti casi di studio:

  • Previsione e prevenzione dell’abbandono (churn) del gestore finanziario nell’ambito finanziario: modello predittivo che studia i comportamenti dei gestori finanziari in termini di operatività del portafoglio, investimenti e disinvestimenti, gestione della liquidità e ulteriori indicatori socio-demografici al fine di definire quale schema predittivo intercetti comportamenti anomali che portano alle dimissioni ed all’abbandono del gestore stesso;
  • Machine learning per la tariffazione in ambito assicurativo: al fine di poter identificare profili di rischio ottimali nella stima di premi e tariffe RCA, studio delle informazioni che descrivono veicoli automobilistici per estrarre combinazioni di caratteristiche predittive della sinistrosità. Tali informazioni vengono poi inserite come ulteriori variabili nei tradizionali modelli attuariali;
  • Previsione della diffusione del diabete mellito di tipo 2 in ambito sanitario: modello predittivo che identifica correlazioni tra i fattori di rischio che portano allo sviluppo della patologia. Tale modello oltre ad essere uno strumento utile per i medici permette di prevedere il numero di nuovi pazienti diabetici a distanza di un anno e di conseguenza gestire la capacità di offerta delle strutture sanitarie, minimizzando i rischi di approvvigionamento o di carenza di servizi offerti al cittadino;
  • Propensione del cliente alla rinegoziazione del contratto in ambito energetico: analisi delle caratteristiche dei punti di fornitura e stima del numero di clienti che nel futuro richiederanno una rinegoziazione del contratto in essere e dunque una variazione della quantità di energia richiesta, al di acquistare un corretto quantitativo di energia da distribuire.

Sviluppo di modelli predittivi: 5 semplici passi propedeutici al machine learning supervisionato

L’utilizzo di tecniche avanzate è uno dei fattori critici di successo degli ultimi anni. Tuttavia, prima di innescare il processo analitico vero e proprio, è necessario passare per una fase di preparazione dei dati, funzionale alla predisposizione di una base dati che contenga tutti gli elementi necessari per applicare le corrette metodologie algoritmiche:

  • Definizione dell’obiettivo e del perimetro di analisi: In questa fase viene definito l’obiettivo di analisi che si intende raggiungere attraverso il modello predittivo da implementare. Questa fase del processo è funzionale a guidare tutte le altre che seguono, sulla base delle specificità proprie del contesto di riferimento. Uno dei focus centrali di questa attività è rappresentato dal soggetto di analisi, ovvero l’unità a cui saranno riferite tutte le informazioni necessarie per la stima del modello.
  • Definizione dell’evento target (variabile obiettivo da prevedere): il target costituisce l’elemento fondamentale di un modello predittivo, racchiude quell’informazione che permette al modello di “imparare” a predire nuovi casi nel momento in cui viene esteso all’intera popolazione. La definizione del target non rappresenta solamente il comportamento del cliente o in generale il fenomeno oggetto di studio, ma necessita anche di adeguate considerazioni di business: ad esempio nei modelli bancari di analisi del cliente si valutano soggetti collegati, come cointestazioni di conto corrente o nature giuridiche specifiche per segmenti del mondo imprese).
  • Individuazione e mappatura delle fonti: in questa fase vengono definite le aree di informazione rilevanti sulla base delle specificità dell’analisi e della disponibilità. Tali fonti possono appartenere a diverse categorie di analisi, in genere riconducibili alle seguenti:
  • Dimensione socio-anagrafica;
  • Dimensione comportamentale;
  • Indicatori finanziari;
  • Informative di relazione;
  • Dimensioni circa il valore potenziale del soggetto di analisi.
  • Gestione della dimensione temporale: nei modelli predittivi un ruolo fondamentale è giocato dalla dimensione temporale. L’importanza deriva dal fatto che un modello predittivo, per definizione, deve guidare delle azioni di business (ad esempio di retention) prima che il fenomeno oggetto di analisi possa giungere ad effettiva realizzazione (time-to-act). Una scelta errata degli intervalli temporali rilevanti può portare ad un modello completamente inutilizzabile perché non consente di generare valore. Le scelte sulla dimensione temporale dipendono dalla natura del fenomeno indagato, dalla tipologia di modello predittivo o, ad esempio, dalle dinamiche commerciali di intervento sulla clientela del business di riferimento. Gli intervalli temporali rilevanti a tal fine sono i seguenti:
  • Profondità storica: rappresenta il tempo che si intende utilizzare per descrivere il comportamento dell’unità di analisi;
  • Arco di previsione: è il time-to-act e rappresenta quella finestra temporale che separa l’osservazione dei fenomeni esplicativi rispetto alla realizzazione del fenomeno descritto dal target;
  • Periodo di rilevazione del target: è costituito da quell’intervallo in cui può manifestarsi il fenomeno oggetto di indagine al fine di popolare il valore della variabile target.

Nei modelli di abbandono, ad esempio, la profondità storica in genere è di 12 mesi, al fine di cogliere informazioni comportamentali che permettano di descrivere correttamente la complessità del cliente. L’arco di previsione (detto anche periodo di buio), invece, è di tre mesi. Questo è il tempo necessario alla banca per intraprendere sul cliente le opportune azioni di retention.

  • Individuazione e predisposizione delle variabili con maggiore potere predittivo: La selezione delle variabili da utilizzare e la scelta delle aree informative da considerare durante il processo di analisi, dipendono in modo rilevante dalla tipologia di modello che si sta implementando. Una volta individuate le aree informative rilevanti, è necessario passare per una fase di preparazione del dato. Non tutte le informazioni disponibili nelle fonti dati, infatti, sono utilizzabili direttamente in un modello analitico. Soprattutto la dimensione comportamentale, infatti, deve essere normalizzata in modo da poter esprimere le informazioni di cui è portatrice. A tal fine è necessario intervenire sui dati applicando delle opportune trasformazioni, come ad esempio medie di comportamenti passati, indicatori di trend o delta di valori in un arco temporale.

In un contesto dove i Big Data sono come la benzina di un motore pulsante come il machine learning supervisionato, la gestione corretta dell’informazione può fare la differenza rispetto al vero valore aggiunto che tale modello porta all’azienda.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3