analisi

AI e scatole nere: perché l’interpretability è una questione di governance



Indirizzo copiato

I modelli AI più capaci sono anche i più opachi. Nessuno, nemmeno chi li costruisce, sa spiegare del tutto come arrivino alle loro decisioni. L’interpretability, disciplina che prova a guardare dentro la rete neurale, è ormai una questione aziendale: chi adotta AI in contesti critici deve sapere perché il modello ha deciso così, prima che glielo chieda un regolatore o un cliente

Pubblicato il 16 apr 2026

Fabio Lalli

Consulente in trasformazione digitale – AI & product strategy



interpretability AI

Ravi Solanki, neuroscienziato e fondatore della biomedicale Prima Mente, aveva addestrato nel 2025 il suo primo modello su centinaia di pazienti con Alzheimer, e il modello prediceva la malattia meglio di un medico umano. C’era però un dettaglio: Solanki non sapeva spiegare su quali dati poggiasse la diagnosi. Il modello funzionava, ma come oggetto muto, una scatola chiusa che restituiva previsioni senza argomenti. E davanti a un paziente, restituire una previsione senza argomenti significa restituire nulla.

Continua a leggere questo articolo

Articoli correlati

0
Lascia un commento, la tua opinione conta.x