Il “Financial Stability Review 2024“ della Banca Centrale Europea (BCE) esplora in dettaglio i benefici e i rischi associati all’adozione dell’AI nel settore finanziario, considerando come questi possano influenzare la stabilità finanziaria sia a livello di singole istituzioni che sistemicamente.
AI generativa e sistema finanziario
L’emergere di strumenti di intelligenza artificiale generativa rappresenta un significativo progresso tecnologico, con il potenziale di avere un impatto sostanziale sul sistema finanziario. Concettualmente, l’AI apporta sia benefici che rischi al sistema finanziario. In pratica, l’impatto complessivo dipenderà da come verranno affrontate le sfide relative ai dati, allo sviluppo e all’implementazione dei modelli, sia a livello di singole istituzioni finanziarie che per il sistema finanziario nel suo complesso. Se i nuovi strumenti di AI verranno ampiamente utilizzati nel sistema finanziario e i fornitori di AI saranno concentrati, il rischio operativo (incluso il rischio informatico), la concentrazione del mercato e le esternalità di tipo “too big to fail” potrebbero aumentare. Inoltre, la diffusione dell’AI potrebbe favorire comportamenti imitativi e una maggiore correlazione dei mercati. Se dovessero emergere preoccupazioni che non possono essere affrontate dal quadro normativo attuale, potrebbero essere necessarie iniziative mirate.
Le banche stanno sperimentando e utilizzando l’AI per la trasformazione digitale
Dalla fine del 2022 l’interesse pubblico per l’AI è aumentato notevolmente e il volume di lavori, innovazioni e brevetti relativi all’AI è in costante crescita. Le ricerche su Google di termini legati all’AI sono aumentate vertiginosamente dal lancio di ChatGPT. Contemporaneamente, il numero di lavori, modelli di AI e brevetti connessi all’AI è in costante aumento. La maggior parte dei modelli recentemente lanciati sono modelli linguistici o multimodali e negli ultimi anni l’Europa ha avuto più persone che lavorano in ruoli legati all’AI rispetto agli Stati Uniti. Secondo uno studio recente, il 64% delle aziende crede che l’AI aumenterà la loro produttività, mentre il 40% dei proprietari di imprese è preoccupato per la dipendenza dalla tecnologia. Altre stime indicano che, a livello globale, l’AI generativa potrebbe aggiungere l’equivalente di tra 2,6 e 4,4 trilioni di dollari di valore economico annuo. Il settore bancario è destinato a essere un grande beneficiario.
Il ritmo e la scala dell’AI, come ogni innovazione di vasta portata, sono destinati a portare benefici ma potrebbero anche comportare rischi per la stabilità finanziaria. Gli organismi internazionali di standardizzazione e le autorità di regolamentazione hanno intensificato i loro sforzi riguardo alle conseguenze dell’AI per il sistema finanziario. C’è un ampio consenso sul fatto che l’uso dell’AI sia associato a possibili benefici per numerosi settori, incluso quello finanziario. Non sorprende quindi che le banche dell’area euro stiano esplorando e utilizzando tecnologie innovative come l’AI per supportare la loro trasformazione digitale.
Nonostante l’AI abbia compiuto significativi progressi, i suoi limiti cognitivi devono essere riconosciuti. I modelli di AI generativa sono stati definiti “pappagalli stocastici”. Il linguaggio che generano è spesso difficile da distinguere dall’interazione umana, ma in sostanza è il risultato di un processo stocastico che combina testo basato su informazioni probabilistiche. Il termine intelligenza artificiale potrebbe quindi essere un termine improprio in quanto suggerisce “intelligenza”, mentre in realtà il modello non comprende fondamentalmente la logica sottostante del testo.
Benefici e rischi dell’AI per le istituzioni finanziarie
È difficile stabilire una valutazione completa delle implicazioni dell’AI per il sistema finanziario poiché la tecnologia è ancora in evoluzione. Detto ciò, una visione preliminare può essere tracciata dalle ultime tendenze, concetti e dibattiti in pubblicazioni, rapporti del settore e rapporti di intelligence di mercato della BCE. I benefici e i rischi dell’AI dipendono dal caso d’uso. Il ciclo di sviluppo e implementazione dell’AI stabilisce un quadro concettuale per una valutazione strutturata dei benefici e rischi derivanti dall’AI a livello di singola azienda finanziaria. Sono necessari tre elementi principali per applicare l’AI a un caso d’uso specifico: dati di addestramento, il modello stesso e la distribuzione o implementazione dello strumento.
Nonostante l’AI migliori notevolmente il trattamento e la generazione dei dati, potrebbe essere soggetta a significativi problemi di qualità dei dati. I sistemi di AI basati su modelli fondamentali possono elaborare e analizzare dati non strutturati oltre ai dati numerici. Questi dati includono testo, codice informatico, voce e immagini. L’AI può essere utilizzata anche per gestire e creare dati. Tuttavia, il modo in cui vengono addestrati i modelli fondamentali significa che potrebbero essere più inclini a “imparare” e mantenere pregiudizi o errori insiti nei dati su cui sono stati addestrati. Pertanto, i modelli fondamentali potrebbero essere soggetti a problemi di qualità dei dati. Un’ulteriore sfida riguarda la privacy dei dati, in particolare se i sistemi pubblicamente disponibili rispettano la privacy dei dati inseriti dagli utenti (che potrebbero, ad esempio, essere informazioni riservate di una specifica azienda) e se esiste un rischio di perdita di dati.
I rischi derivanti dall’adozione dell’AI
I modelli di AI sono adattabili, flessibili e scalabili, ma soggetti a bias, allucinazioni e maggiore complessità, il che li rende meno robusti. L’architettura di base generica dell’AI può essere ottimizzata per svolgere compiti più specializzati. Questo può essere ottenuto addestrando il modello su dati specifici, per esempio. Questa caratteristica migliora significativamente le capacità del modello in un’area mirata pur mantenendo le sue capacità generative complessive. L’AI è quindi adattabile e scalabile per diversi casi d’uso. Detto ciò, l’AI è soggetta a bias algoritmici, per cui il modello favorisce sistematicamente certi risultati che hanno effetti iniqui. Inoltre, può presentare informazioni false o fuorvianti come fatti – note come “allucinazioni”.
Poiché i modelli di AI recenti sono molto più complessi rispetto ai modelli tradizionali, è molto difficile per gli esseri umani comprendere e ricostruire le previsioni effettuate. Inoltre, poiché l’AI potrebbe non essere addestrata sulle informazioni più recenti disponibili, le sue capacità potrebbero essere limitate da una barriera tecnologica conoscitiva. Queste sfide limitano fortemente la robustezza delle previsioni dell’AI.
Quando viene distribuita, l’AI può aumentare l’efficienza, ma la sua performance è difficile da prevedere e soggetta a possibili abusi o eccessiva dipendenza. Grazie alla flessibilità intrinseca dell’AI, si prevede che le istituzioni finanziarie saranno in grado di utilizzare strumenti di AI in una vasta gamma di casi d’uso, compiti che finora sono stati eseguiti da lavoratori umani. Questo probabilmente porterà a una maggiore efficienza e significativi risparmi sui costi. Allo stesso tempo, tale distribuzione in nuovi compiti e processi presenta un rischio, poiché è difficile prevedere e controllare ex ante come l’AI si comporterà nella pratica.
I sistemi di AI possono sviluppare capacità inaspettate e potenzialmente dannose quando applicati a nuovi casi d’uso. Inoltre, non è inverosimile che l’AI possa essere utilizzata in modo dannoso. Ad esempio, i criminali potrebbero ottimizzare e corrompere l’AI altrimenti innocua per operazioni specifiche (ad esempio attacchi informatici, disinformazione, manipolazione del mercato, uso di deepfake per minare la fiducia in un’istituzione finanziaria, ecc.), aumentando il loro potenziale di minaccia.
Come le istituzioni finanziarie potrebbero utilizzare l’AI
Le istituzioni finanziarie potrebbero utilizzare l’AI in diversi modi. In vista delle migliorate capacità dell’AI e della ricchezza di dati disponibili per le istituzioni finanziarie da cui possono essere fatte previsioni o generate nuove informazioni, i modelli di AI potrebbero essere utilmente impiegati nell’analisi quantitativa, nei processi operativi, nella gestione del rischio, nell’interazione con i clienti e nella cybersecurity, tra le altre aree. Dato lo sviluppo rapido in questi settori, il quadro concettuale suggerito non esclude possibili ulteriori casi d’uso o classificazioni alternative.
L’AI potrebbe migliorare il trattamento delle informazioni e la precisione delle previsioni quantitative, ma la robustezza delle sue previsioni resta una sfida. La flessibilità dell’AI nell’analizzare varie forme di dati di input, insieme alle sue capacità generative e predittive, permetterà alle istituzioni finanziarie di utilizzarla per funzioni di gestione dei dati, creazione e valutazione. Di conseguenza, l’AI potrebbe essere utilizzata per estrarre e preparare sistematicamente informazioni in tempo reale da varie fonti simultaneamente (media, rapporti del settore, conversazioni, dati di mercato, ecc.) che possono essere utilizzate per formare previsioni. Questo potrebbe migliorare significativamente le informazioni disponibili, portando a decisioni più precise e quindi a risultati migliori (ad esempio nel trading, allocazione degli asset, ecc.).
Tuttavia, le allucinazioni, il bias algoritmico e la vulnerabilità ai problemi di qualità dei dati rappresentano rischi per l’accuratezza delle previsioni dell’AI. Se le entità finanziarie basassero le loro decisioni su previsioni errate dell’AI che non sono verificate, questo potrebbe portare a risultati che potrebbero causare perdite economiche o addirittura movimenti disordinati del mercato. Inoltre, la complessità dell’AI potrebbe rendere difficile identificare la causa degli errori o spiegare e giustificare qualsiasi decisione basata sull’AI.
L’AI potrebbe migliorare l’efficienza dei processi operativi
L’AI potrebbe migliorare l’efficienza dei processi operativi delle istituzioni finanziarie, ma il rischio operativo e la dipendenza da terzi potrebbero aumentare. L’AI potrebbe essere applicata in vari processi operativi interni, che vanno dalle funzioni di co-piloting che correggono automaticamente o completano la stesura di testi o codici, ad algoritmi più sofisticati (ad esempio chatbot o assistenti digitali) che possono automatizzare compiti di routine o intere linee di lavoro. Queste applicazioni libererebbero risorse umane, migliorerebbero le strutture dei costi e potenzialmente ridurrebbero l’errore umano. D’altra parte, le sfide legate ai dati, ai modelli e alla distribuzione potrebbero minare la robustezza dell’AI e, se l’AI viene utilizzata per sostenere processi operativi critici, ciò potrebbe aumentare significativamente il rischio operativo. Inoltre, a seconda che le istituzioni finanziarie abbiano la capacità interna di sviluppare modelli fondamentali, l’architettura di base potrebbe dover essere acquisita da aziende esterne.
Questo aumenterebbe la dipendenza da terzi e potrebbe anche sollevare preoccupazioni sulla privacy dei dati se i modelli forniti da terzi vengono ottimizzati utilizzando dati riservati interni (ad esempio registrazioni interne, bilanci finanziari, ecc.).
L’AI potrebbe migliorare le funzioni di gestione del rischio delle aziende finanziarie, ma potrebbe anche indebolirle se le sue previsioni si dimostrassero inaffidabili. Le funzioni di gestione del rischio potrebbero essere viste come sotto-gruppi delle aree di analisi quantitativa e processi operativi. L’AI in questo dominio potrebbe essere utilizzata per il rilevamento e il monitoraggio delle frodi (ad esempio per scopi antiriciclaggio), per il monitoraggio e la pianificazione del rischio di capitale e liquidità e per la conformità normativa. Le considerazioni che si applicano a qualsiasi analisi quantitativa basata sull’AI in termini di benefici e rischi attesi si applicano anche alla sua implementazione nelle funzioni di rischio. L’AI potrebbe migliorare le capacità di gestione del rischio, portando a valutazioni e previsioni di rischio più accurate e a una pianificazione del capitale e della liquidità più efficiente.
Allo stesso tempo, il bias algoritmico, le allucinazioni e altre sfide potrebbero rendere le valutazioni del rischio delle istituzioni che si basano sull’AI meno affidabili e robuste. Qualsiasi beneficio o rischio che può essere implicato dall’uso dell’AI nella gestione del rischio avrà implicazioni dirette per la resilienza del settore finanziario da un punto di vista prudenziale, necessitando di un attento monitoraggio da parte di tutti i soggetti coinvolti, compresi gli organi di gestione delle istituzioni finanziarie e le autorità di vigilanza.
Come può essere utilizzata l’AI per migliorare le operazioni rivolte ai clienti
L’AI nelle operazioni rivolte ai clienti potrebbe migliorare l’adeguatezza del prodotto al cliente, ma il suo uso potrebbe anche portare a discriminazioni dei clienti se non viene controllato. Si prevede che l’AI sbloccherà molteplici nuove applicazioni nelle attività rivolte ai clienti. Queste potrebbero essere nella comunicazione, nell’onboarding e nella gestione dei reclami (ad esempio utilizzando chatbot automatici), nelle funzioni di consulenza (ad esempio utilizzando assistenti digitali/robo-advisor) e nell’analisi di una varietà di dati relativi ai clienti che potrebbero portare a prodotti e servizi meglio adattati. Questo potrebbe migliorare l’adeguatezza del prodotto al cliente da parte delle istituzioni finanziarie, aumentando l’efficienza economica sia per l’istituzione che per il cliente.
Tuttavia, il bias algoritmico potrebbe portare a trattamenti discriminatori dei clienti e essere difficile da identificare e monitorare. Inoltre, la questione della perdita di dati è particolarmente sensibile nel caso dell’AI addestrata su dati specifici dei clienti, sollevando considerazioni sulla protezione dei consumatori e potrebbe anche esporre le istituzioni a un aumento del rischio reputazionale o legale.
Implicazioni dell’AI per la stabilità finanziaria
Le implicazioni dell’AI per le singole aziende possono amplificarsi a livello sistemico attraverso la penetrazione tecnologica e la concentrazione dei fornitori. Ci sono due amplificatori sistemici attraverso i quali le implicazioni dell’AI per singole aziende potrebbero diventare sistemiche. Il primo amplificatore è la penetrazione tecnologica. Se l’AI viene ampiamente adottata da diverse entità finanziarie per un numero crescente di processi e applicazioni, più aree del sistema finanziario saranno influenzate dalle sfide e opportunità associate all’AI. Il secondo amplificatore è la concentrazione dei fornitori.
Se la maggior parte delle istituzioni finanziarie utilizza gli stessi o molto simili modelli fondamentali forniti da pochi fornitori, è probabile che le decisioni basate sull’AI soffriranno degli stessi bias e sfide tecnologiche e la dipendenza dai fornitori di sistema aumenterà. L’interazione tra queste due dimensioni determinerà se i benefici e i rischi derivanti dai casi d’uso a livello di singola istituzione diventeranno sistemici.
La stabilità finanziaria potrebbe essere a rischio se la concentrazione dei fornitori e la penetrazione tecnologica sono elevate. Da un lato, se solo poche istituzioni utilizzano l’AI e ci sono molti fornitori diversi della tecnologia, i rischi potrebbero verificarsi a livello micro, a seconda dei casi d’uso delle singole istituzioni. Dall’altro lato, se la penetrazione tecnologica e la concentrazione dei fornitori sono elevate, qualsiasi rischio dell’AI rilevante a livello micro potrebbe amplificarsi e portare a conseguenze per la stabilità finanziaria. La transizione da micro a macro potrebbe essere graduale, ma non necessariamente lineare.
Il rischio di una dipendenza eccessiva dall’AI
L’eccessiva dipendenza e un numero limitato di fornitori di AI potrebbero rendere più fragile l’ossatura operativa del sistema finanziario. Per sfruttare i potenziali guadagni di efficienza, le istituzioni finanziarie potrebbero sostituire sempre più risorse umane con risorse AI, inducendo potenzialmente una dipendenza eccessiva dall’AI nelle funzioni principali che potrebbe rendere il sistema finanziario più vulnerabile ai difetti operativi intrinseci e ai fallimenti o agli attacchi informatici. Entrambi verrebbero amplificati se il numero di fornitori di AI fosse limitato, poiché questo aumenterebbe ulteriormente la dipendenza del sistema finanziario da fornitori terzi e introdurrebbe rischi di punti di fallimento singoli. Questo costituisce una potenziale minaccia per la stabilità finanziaria dal punto di vista del rischio operativo e del rischio informatico.
La diffusione dell’AI potrebbe aumentare la concentrazione del mercato nel settore dei servizi finanziari. L’integrazione dell’AI nelle strutture aziendali potrebbe richiedere ingenti investimenti iniziali fissi e comportare rischi economici. Potrebbe essere più facile per le aziende più grandi con infrastrutture dati ben consolidate e reti di terzi ottenere il necessario know-how tecnologico e livelli di disponibilità dei dati. Di conseguenza, alcune istituzioni finanziarie potrebbero perdere la transizione o non essere in grado di fare gli investimenti necessari, rimanendo permanentemente indietro e uscendo dal mercato. Come altre tecnologie dell’informazione, l’AI potrebbe rivelarsi un mercato dove il vincitore prende tutto. L’AI potrebbe quindi contribuire a un ulteriore spostamento del potere di mercato in un ambiente sempre più digitalizzato, portando a una maggiore concentrazione nel sistema finanziario, tra i giocatori esistenti o nuovi giocatori (ad esempio dall’industria tecnologica). In definitiva, questo potrebbe comportare la riduzione del numero di istituzioni presenti sul mercato, accelerare le esternalità di tipo “too big to fail” e trasferire le rendite economiche dai consumatori alle istituzioni finanziarie.
Perché l’AI potrebbe aumentare il potenziale di crisi dei mercati finanziari
L’AI potrebbe distorcere la funzione di elaborazione delle informazioni dei mercati, aumentando il potenziale endogeno di crisi dei mercati finanziari. Concettualmente, l’AI può essere vista come un filtro attraverso il quale vengono raccolte, analizzate e valutate le informazioni. L’interpretazione delle informazioni potrebbe diventare più uniforme se modelli sempre più simili con le stesse sfide e bias incorporati vengono ampiamente utilizzati per comprendere le dinamiche dei mercati finanziari. Di conseguenza, l’AI potrebbe rendere sistematicamente biasate le conclusioni dei partecipanti al mercato, portando a prezzi degli asset distorti, maggiore correlazione, comportamenti imitativi o bolle.
Se molte istituzioni utilizzassero l’AI per l’allocazione degli asset e si affidassero solo a pochi fornitori di AI, ad esempio, l’offerta e la domanda di asset finanziari potrebbero essere sistematicamente distorte, innescando aggiustamenti costosi nei mercati che comprometterebbero la loro resilienza. Allo stesso modo, l’uso estensivo dell’AI da parte degli investitori al dettaglio potrebbe provocare grandi e simili cambiamenti nei modelli di trading al dettaglio, aumentando la volatilità del sentiment del mercato, dei volumi di trading e dei prezzi.
La maggior parte delle banche sta già utilizzando sistemi di AI tradizionali
È difficile prevedere quale livello di penetrazione tecnologica e concentrazione dei fornitori raggiungerà l’AI nel sistema finanziario. Poco più della metà degli investimenti nelle aziende di AI è stato destinato a quattro aziende, indicando un alto grado di concentrazione dei fornitori. Se l’AI sarà ampiamente utilizzata nel sistema finanziario dipenderà dai benefici attesi e dal ritorno sugli investimenti. Un sondaggio condotto tra le banche supervisionate dalla BCE indica che la maggior parte delle banche sta già utilizzando sistemi di AI tradizionali. Tuttavia, l’intelligence di mercato della BCE suggerisce che l’uso dell’AI generativa è ancora nelle prime fasi di implementazione. I contatti di mercato indicano che le istituzioni finanziarie dell’area euro potrebbero essere più lente nell’adottare l’AI generativa, data la gamma di rischi precedentemente discussi, rendendo la decisione di essere un early adopter o un follower più complessa in finanza rispetto ad altri settori, considerando anche i potenziali rischi reputazionali.
Inoltre, la strategia di adozione tecnologica implica un complesso compromesso tra la partnership con fornitori esterni (comprese le grandi aziende tecnologiche rispetto alle start-up più piccole) e la creazione di competenze AI interne. Quest’ultima potrebbe diventare più fattibile se più architetture di base AI diventassero disponibili come open source. In definitiva, saranno queste decisioni a determinare i livelli di penetrazione tecnologica e concentrazione dei fornitori.
Conclusioni
L’AI potrebbe portare benefici e rischi a livello di istituzione finanziaria così come per l’intero sistema finanziario. Il significativo progresso tecnologico nel campo dell’AI potrebbe essere un motore di progresso economico che beneficia i consumatori, le aziende e l’economia nel suo complesso. L’AI può aumentare l’efficienza dell’intermediazione finanziaria tramite un’elaborazione delle informazioni più rapida e completa che supporta il processo decisionale, il che potrebbe rafforzare il sistema finanziario e contribuire alla stabilità finanziaria. Allo stesso tempo, le sfide tecnologiche associate all’AI ne limitano la robustezza e aumentano i rischi legati ai bias, alle allucinazioni o all’uso improprio. Questi potrebbero distorcere i risultati del mercato finanziario, compromettere la robustezza del quadro operativo o sistematicamente biasare l’elaborazione delle informazioni e la gestione del rischio o il processo decisionale delle istituzioni.
Le implicazioni sistemiche dell’AI dipenderanno dai livelli di penetrazione tecnologica e concentrazione dei fornitori, che sono difficili da prevedere. La tecnologia dell’AI e il suo utilizzo nel settore finanziario sono ancora in evoluzione. Inoltre, ulteriori considerazioni, come gli effetti macroeconomici e climatici più ampi dell’AI così come gli aspetti morali ed etici dell’uso improprio dell’AI, devono essere ulteriormente esplorati. Quest’ultimo potrebbe avere un impatto sulla fiducia pubblica nell’intermediazione finanziaria, che è un pilastro della stabilità finanziaria. Pertanto, l’implementazione dell’AI in tutto il sistema finanziario deve essere attentamente monitorata mentre la tecnologia evolve. Inoltre, potrebbero essere necessarie iniziative normative se dovessero emergere fallimenti del mercato che non possono essere affrontati dal quadro prudenziale attuale.