Ravi Solanki, neuroscienziato e fondatore della biomedicale Prima Mente, aveva addestrato nel 2025 il suo primo modello su centinaia di pazienti con Alzheimer, e il modello prediceva la malattia meglio di un medico umano. C’era però un dettaglio: Solanki non sapeva spiegare su quali dati poggiasse la diagnosi. Il modello funzionava, ma come oggetto muto, una scatola chiusa che restituiva previsioni senza argomenti. E davanti a un paziente, restituire una previsione senza argomenti significa restituire nulla.
analisi
AI e scatole nere: perché l’interpretability è una questione di governance
I modelli AI più capaci sono anche i più opachi. Nessuno, nemmeno chi li costruisce, sa spiegare del tutto come arrivino alle loro decisioni. L’interpretability, disciplina che prova a guardare dentro la rete neurale, è ormai una questione aziendale: chi adotta AI in contesti critici deve sapere perché il modello ha deciso così, prima che glielo chieda un regolatore o un cliente
Consulente in trasformazione digitale – AI & product strategy

Continua a leggere questo articolo
Argomenti
Canali




