La explainable AI, o intelligenza artificiale spiegabile, indica l’insieme di approcci, tecniche e strumenti che permettono di rendere comprensibili i risultati prodotti da sistemi di intelligenza artificiale, anche quando basati su modelli complessi. L’obiettivo non riguarda solo la trasparenza tecnica, ma la possibilità per decisori, auditor e stakeholder di comprendere perché un sistema ha prodotto una determinata previsione o raccomandazione.
approfondimento
Explainable AI (XAI): perché la trasparenza degli algoritmi è il futuro
La explainable AI consente alle aziende di comprendere, governare e rendere affidabili i sistemi di intelligenza artificiale, con impatti diretti su fiducia, conformità normativa e qualità delle decisioni
giornalista

Continua a leggere questo articolo
Argomenti
Canali





