[VIDEO] Intelligenza Artificiale nel Finance: la sfida è interpretare i modelli

Pubblicato il 08 Ago 2019

Stefano Gatti, Head of Data and Analytics di NEXI - intervista a AI360 Summit 2019

Qual è il ruolo del Machine Learning nel settore finanziario?

Stefano Gatti, Head of Data & Analytics di Nexi, rispondendo a questa domande offre alcuni interessanti spunti di riflessione, tra i quali quello della cosiddetta Explainable AI

Intelligenza Artificiale nel Finance: la sfida è interpretare i modelli

Intelligenza Artificiale nel Finance: la sfida è interpretare i modelli

Guarda questo video su YouTube

DI SEGUITO LA TRASCRIZIONE DEL VIDEO

Qual è il ruolo del Machine Learning nel settore finanziario?

[00:00:06] L’ambito finanziario è abbastanza ampio e complesso; però ci sono in giro per il mondo -ma anche nel nostro Paese – degli ambiti dove il Deep Learning, che è la parte più evoluta di tutta la famiglia dell’Artificial Intelligence, incomincia ad essere utilizzato.

[00:00:24] Sicuramente per fare degli esempi concreti, nell’ambito del credit scoring, cioè  come viene valutata un’azienda o una persona ai fini dell’accesso al credito, queste metodologie vengono integrate e utilizzate in alcuni casi in questi progetti.

[00:00:42] Ci sono altri ambiti quale l’antifrode, dove queste metodologie più innovative si affiancano a sistemi più tradizionali per aggiungere precisione a questi meccanismi antifrode..

[00:00:56] Così come anche l’AML, cioè  l’Anti-Money Laundering, è un ambito dove tecnologie di Artificial Intelligence ma anche di Deep Learning aggiungono anche in questo caso valore.

[00:01:09] Uno degli aspetti però su cui bisogna sicuramente riflettere, e sul quale tutti i team di AI Expert sono concentrati in questo momento, è risolvere i problemi legati all’interpretabilità dei modelli.

[00:01:24] Perché se su approcci più statistici e più legati al machine learning è più facile per un consumatore, per un’azienda, capire il risultato dell’algoritmo, nell’ambito delle tecnologie innovative di Deep Learning questi algoritmi rischiano di essere blackbox difficilmente spiegabili.

[00:01:43] Quello che a livello di studi di frontiera ma anche con applicazioni pratiche si sta facendo a livello mondiale è cercare di aggiungere dei layer applicativi che, pur non facendo perdere accuratezza ai modelli, riescono a spiegare il loro risultato.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3