Il machine learning contro le frodi assuntive nelle assicurazioni

Gli algoritmi di machine learning non supervisionato rappresentano uno strumento che genera efficacia ed efficienza nei sistemi di controllo e di presidio delle frodi, il pezzo a valore aggiunto di un completo processo antifrode [...]
frodi
  1. Home
  2. Intelligenza Artificiale
  3. Machine Learning
  4. Il machine learning contro le frodi assuntive nelle assicurazioni

L’ecosistema assicurativo è da sempre molto attento all’individuazione e intercettazione di azioni fraudolente, ovvero di comportamenti illegali che hanno l’obiettivo di aumentare l’incasso di un rimborso o conseguirne uno senza giusta causa. Come possiamo costruire sofisticati sistemi contro le frodi assuntive con advanced analytics e machine learning? Possono algoritmi di intelligenza artificiale fermare i comportamenti fraudolenti?

Spesso siamo propensi a pensare alla frode come a una falsa rappresentazione di un sinistro non realmente avvenuto, la dichiarazione in malafede dell’entità del danno oppure a una volontaria provocazione del sinistro stesso. Tuttavia, esiste una ulteriore tipologia di frode che spesso diamo per scontata, ma che può provocare importanti danni di profitto, immagine e reputazione: la frode assuntiva o frode contrattuale. Identificare queste tipologie di frode non è semplice e il patrimonio informativo a disposizione è spesso limitato. Le situazioni di incertezza spesso possono portare a un aumento considerevole di tali casistiche. Per questo motivo, nel periodo del coronavirus si cerca sempre di più supporto in tecnologie di innovazione che aiutino ad intercettare e anticipare attività di frode.

Il modello statistico-matematico: uno strumento poco utilizzato dalle grandi potenzialità

La frode è spesso rappresentata come “schema”, ovvero una serie di regole deterministiche che, se attivate contemporaneamente, segnalano un comportamento illecito. Il presidio di tale rischio è pertanto volto a un monitoraggio costante di questi segnali.

Negli ultimi dati i big data e gli strumenti di business intelligence, come la data visualization, hanno cambiato radicalmente l’approccio di continuous monitoring. Si è passati da un’esperienza business driven basata sulla conoscenza dell’utente di una popolazione a campione a strumenti di rappresentazione nel continuo di fenomeni potenzialmente a rischio.

L’introduzione di questa innovazione tecnologica ha permesso di efficientare e ridurre notevolmente i tempi di investigazione, ma anche questi strumenti soffrono di alcuni bias. Infatti, le dashboard di monitoraggio per la rappresentazione di potenziali schemi di frode presentano le seguenti caratteristiche:

  • conoscenza a priori: individuazione delle regole e degli schemi di frode da monitorare, sulla base di esperienza utente, reclami di particolare interesse o segnalazioni interne;
  • staticità dei controlli: gli algoritmi che descrivono le regole deterministiche di rappresentazione della frode sono alert statici nel tempo;
  • costante aggiornamento delle regole: in seguito all’attivazione di presidi, è probabile che i comportamenti di rischio si modifichino nel tempo, generandone di nuovi. Per tale motivo è spesso necessario cercare, esplorare e individuare nuovi schemi.

Tuttavia, c’è una ulteriore caratteristica di questi sistemi che può essere vista come il punto di partenza per un nuovo strumento di intelligenza artificiale (AI): l’elaborazione del patrimonio informativo e la centralizzazione dei dati in un ambiente big data. Questo aspetto può essere il fattore abilitante di un’interazione uomo-macchina a supporto della segnalazione di nuove situazioni potenzialmente a rischio

In quest’ottica, la predisposizione di un ambiente big data, più o meno complesso, risulta essere un ottimo punto di partenza per l’introduzione di modelli statistico-matematici. Si stima che nelle progettualità di advanced analytics e machine learning a supporto di sistemi di AI circa il 70% del tempo è speso nell’utilizzo delle tecniche per il popolamento di questi ambienti, attraverso l’elaborazione del dato e l’utilizzo di procedure di ETL (extract, transform e load).

Usufruire di tali sistemi può accelerare la predisposizione di un ambiente analitico propedeutico all’utilizzo di modelli innovativi, evoluti e complessi.

Quando si parla di machine learning e di modellistica avanzata ci sono diverse famiglie di riferimento. Nella costruzione di sistemi complessi e automatizzati, tali modelli giocano un ruolo di fondamentale importanza per l’individuazione di pattern e fenomeni non noti a priori. È il caso di sistemi antifrode, dove l’utilizzo di algoritmi non supervisionati per l’analisi di profili, comportamenti e fattori contestuali abilita l’intercettazione di fenomeni di atipicità.

WEBINAR
Blockchain, Iot, AI per una Supply Chain intelligente e più efficiente
Blockchain
Intelligenza Artificiale

I modelli non supervisionati hanno la capacità di istruire la macchina a operare in modo autonomo: a partire da una serie di indicatori che descrivono polizze, cliente, agente, conoscenza sul territorio degli strumenti finanziari e più in generale metriche decisionali, si lascia che il computer operi in autonomia nella generazione di gruppi e di profili. Questo approccio gestisce la multidimensionalità dell’informazione e permette di identificare raggruppamenti non noti a priori.

In aggiunta, viene associata a ogni unità statistica di riferimento una metrica di distanza dal centro di ogni raggruppamento (cluster), ovvero dal comportamento medio delle unità del gruppo. Utilizzando al meglio la statistica della distanza possiamo in questo modo far suggerire dalla macchina quelle regole multidimensionali ed automatiche che l’utente esperto di frode assicurativa può etichettare come comportamento anomalo e quindi potenzialmente a rischio frode.

Il ruolo dell’interazione uomo-macchina diventa sempre più decisivo, dove:

  • l’utente non deve solo conoscere il contesto ma avere skill di interpretazione di algoritmi complessi;
  • la macchina segnala comportamenti di atipicità, che non rappresentano automaticamente una frode ma una segnalazione di un comportamento non usuale. Sarà solo l’assegnazione di un punteggio di rischio da parte dell’operatore di controllo che permetterà il monitoraggio nel continuo delle situazioni effettivamente anomale.

Riassumendo, gli algoritmi di machine learning non supervisionato rappresentano uno strumento che genera efficacia ed efficienza nei sistemi di controllo e di presidio delle frodi, se visti come il pezzo a valore aggiunto di un completo processo antifrode.

Costruire un sistema contro le frodi assuntive in 4 passi con il machine learning

Nel paragrafo precedente è stato introdotto il concetto di modello statistico-matematico nella sua accezione di algoritmi non supervisionati, ovvero che non conoscono a priori il fenomeno da analizzare ma che generano una serie di regole per intercettare comportamenti e/o profili diversi tra loro.

Questi modelli possono essere integrati a supporto di diversi processi interni alle compagnie per la gestione delle frodi.

La maggior parte dei comportamenti illeciti è solitamente rappresentato a contratto già stipulato. Tuttavia, è sempre più importante comprendere situazioni di potenziale rischiosità anche nelle prime fasi di contatto con il cliente all’interno del customer journey.

Di seguito vengono descritti alcuni take-away per la costruzione di un sistema antifrode a supporto dell’ambito relativo alle frodi assuntive:

  • Data discovery e individuazione del patrimonio informativo a disposizione. È la fase inziale di qualsiasi progetto di Advanced Analytics che sfruttano approcci data-driven per la generazione di insight. È di fondamentale importanza perché la disponibilità del dato abilita la comprensione di quali fenomeni e unità statistiche si è in grado di far descrivere dalla macchina e quindi dall’utilizzo di sistemi evoluti.

In questa fase inoltre, dopo aver concluso una gap analysis, si identificano le unità statistiche di riferimento, decidendo quali dimensioni di analisi investigare (cliente e/o agente).

Le informazioni vengono poi classificate rispetto alle principali dimensioni di analisi, come ad esempio la spesa sostenuta dall’assicurato, l’utile generato per la compagnia, le commissioni generate per i canali distributivi, ecc.

Le fonti dati a disposizione possono essere di diversa natura, come fonti interne quali anagrafiche, rapporti, reclami, questionari IDD, output del target market di riferimento, garanzie, premi, oppure fonti esterne come scaping dati dal web, portale IVASS, open data (ISTAT).

  • Razionalizzazione del patrimonio informativo e costruzione di indicatori di interesse. A partire delle fonti individuate, il dato viene manipolato per la costruzione di indicatori volti a rappresentare le unità statistiche di riferimento. La conoscenza di schemi di frode pregressi può essere un acceleratore nell’ideazione e messa a disposizione di un nuovo layer dati analitico, attraverso tecniche di data enrichment.

Non esiste un indicatore giusto o sbagliato, piuttosto si possono identificare indicatori più complessi di altri rispetto alle tecniche di elaborazione del dato: dalla semplice assegnazione della classe Bersani, a indicatori di documentazione contraffatta che usano tecniche di Image Recognition per intercettare scarsa qualità o anomalie (mancanza di lettere nella carta d’identità), dalle garanzie extra richieste in prodotti tailor made, allo scarico delle informazioni della sezione RUI di IVASS, e molto altro ancora.

  • Algoritmi di clustering per il machine learning non supervisionato. La continuazione del funnel data-driven che porta al sistema antifrode prevede quindi la selezione del patrimonio informativo rispetto alle diverse dimensioni di analisi, individuando quali dati risultano significativi nella descrizione del fenomeno. Per fare ciò su possono usare diverse tipologie di statistiche, dalle semplici e più note correlazioni di Pearson, all’utilizzo di tecniche di machine learning per la feature selection (come ad esempio la random forest), oppure analisi delle interdipendenze.

Selezionato il patrimonio informativo di interesse si è quindi nelle condizioni di poter eseguire le tecniche algoritmi di cluster analysis dove, a partire dalla scelta degli algoritmi più adeguati (es. k-medie, dbscan), si suddivide la popolazione di analisi in gruppi distinti.

Sarà quindi possibile descrivere ogni singolo gruppo attraverso gli indicatori che maggiormente lo caratterizzano rispetto agli altri. Questa interpretazione dei cluster sarà quindi oggetto di una valutazione da parte dell’utente di business per valutarne la rischiosità e attribuendone un punteggio.

  • Sistema antifrode e monitoraggio. Dalla combinazione dei punteggi di rischiosità e dalle distanze che ogni singola unità statistica presenta rispetto ai diversi gruppi si è quindi in grado di combinare le informazioni secondo uno score di sintesi a supporto del sistema dei controlli.

Tale score verrà declinato con pesi percentuali rispetto alle diverse dimensioni di analisi e rappresenta l’output del sistema antifrode, nonché il punto di partenza per l’operatività quotidiana che le strutture di controllo devono garantire a presidio del rischio.

L’output finale di questo sistema complesso è quindi un semplice indicatore di rischiosità, con logiche a semaforo di attivazione di alert e controlli.

Infine, per garantire la robustezza di tale sistema tutti i mesi vengono generati ulteriori metriche di stability index sui modelli di clustering. Il modello non supervisionato ha l’obiettivo di generalizzare un comportamento e descriverlo. Tuttavia, l’utilizzo di controlli a presidio del rischio può spingere il cliente o l’agente a fare emergere nuove situazioni di atipicità che potrebbero nel tempo evolvere come anomalie.

DIGITAL EVENT 13 OTTOBRE
Customer experience: tutti i vantaggi offerti dai processi di Digital Identity
CRM
Intelligenza Artificiale

 

FacebookTwitterLinkedIn