Approfondimenti

I bias nell’intelligenza artificiale: quando i dati diventano discriminatori



Indirizzo copiato

Si tratta di un problema che deve essere affrontato per evitare gravi conseguenze e che richiede un approccio olistico in grado di garantire: set di dati diversi e rappresentativi; maggiore trasparenza, inclusività, responsabilità imparzialità e affidabilità dei sistemi di AI

Pubblicato il 12 lug 2023




L’intelligenza artificiale costituisce sempre più parte integrante della nostra quotidianità e vi è una crescente preoccupazione sulla gestione dei cosiddetti “bias, ossia i pregiudizi che questa tecnologia può a volte presentare e sulle conseguenze che potrebbero derivare.

Cosa sono i bias e come possono influenzare l’AI

L’intelligenza artificiale è definita come un insieme di tecnologie che cercano di riprodurre ciò che è in grado di fare la mente umana. Per fare ciò, la tecnologia si basa su diversi algoritmi, alcuni dei quali hanno la capacità di eseguire ciò che viene chiamato apprendimento automatico (Machine learning), ovvero estrarre informazioni e schemi da dati grezzi.

Di fatto, il pregiudizio negli algoritmi di intelligenza artificiale può derivare da dati di addestramento non rappresentativi o incompleti o dalla dipendenza da informazioni imperfette che riflettono disuguaglianze storiche.

Gli algoritmi distorti – se lasciati incontrollati – possono indurre a decisioni che possono avere un impatto collettivo e differente su determinati gruppi di persone, oltre a produrre gravi conseguenze per gli individui e la società, quali: il trattamento ingiusto, l’esclusione o la violazione dei diritti umani. Pertanto, è quanto mai necessario garantire che i sistemi di intelligenza artificiale siano etici, equi e trasparenti.

Vediamo come il pregiudizio può insinuarsi negli algoritmi in diversi modi:

  • Preconcetti, opinioni, aspettative culturali, sociali e istituzionali che sono preesistenti in chi idea e progetta il sistema di intelligenza artificiale e possono essere trasmessi indirettamente alla tecnologia stessa.
  • Pregiudizi che si diffondono per via tecnica, ossia a causa dei limiti di progettazione di un dato sistema, oppure posso insorgere quando una certa applicazione di intelligenza artificiale è utilizzata in contesti imprevisti o da un pubblico che non è considerato nella progettazione iniziale del software.
  • “Bias di incertezza”, ovvero, un tipo di bias in grado di “distorcere” i processi algoritmici rispetto ai risultati che riproducono i campioni più grandi, ignorando i dati riguardanti popolazioni sottorappresentate nel dataset.

I bias nel machine learning possono essere suddivisi in tre categorie principali:

  • Bias tra dati e algoritmi – Diversi tipi di errori si verificano nei dati e portano a risultati distorti, ovvero:
    • Bias di misurazione – Si verifica quando vengono riportate conclusioni non uniformi durante la costruzione del set di dati di addestramento.
    • Bias di campionamento o selezione – Si verifica quando i dati di addestramento – scaturiti dai dati raccolti – non vengono campionati in modo sufficientemente casuale, creando una preferenza verso alcune “popolazioni”.
    • Bias di rappresentazione- Simile al bias di campionamento, il bias di rappresentazione deriva da una raccolta di dati non uniforme. Esso si verifica quando il processo di raccolta dei dati non tiene conto della diversità della popolazione e delle anomalie.
    • Bias di aggregazione – Si verificano quando vengono formulate false ipotesi o generalizzazioni sugli individui rispetto all’intera popolazione. Pertanto, è necessario che l’insieme di possibili etichette che contrassegnano il set di dati di addestramento sia in grado di catturare le diverse conclusioni che si possono trarre dal set di dati.
    • Differenza da variabile omessa – Una variabile omessa riflette la distorsione di una o più variabili mancanti che possono influire sul risultato finale…
  • Bias causati dell’algoritmo – Si tratta di bias algoritmici che possono eventualmente agire sul comportamento degli utenti e, precisamente:
    • Bias algoritmico – Si verifica quando la progettazione o l’implementazione di un algoritmo di apprendimento automatico produce risultati distorti. Ciò può accadere a causa di vari fattori, quali: la selezione dei dati di addestramento, la scelta delle funzionalità o l’uso di modelli distorti.
    • Bias di popolarità – Si verifica nei sistemi di raccomandazione quando gli articoli “popolari” vengono consigliati più frequentemente di altri articoli, ovvero, quando un sistema di raccomandazione fa molto affidamento sulla popolarità degli articoli come segnale per consigliarli agli utenti.
    • Bias emergente – Si verifica nel tempo – solitamente dopo che il modello è stato progettato e distribuitoe scaturisce dall’interazione con gli utenti e può essere causato da cambiamenti della base di utenti target, delle loro abitudini e dei valori.
    • Distorsioni di valutazione – Scaturiscono da parametri di riferimento inadatti o sproporzionati. È quanto mai importante sia costruire set di dati di addestramento imparziali sia progettare set di dati di test privi di bias e benchmark imparziali.
  • Bias tra dati e utenti – Molti dati introdotti nei modelli sono generati dall’utente, ne consegue che le distorsioni intrinseche dell’utente possono riflettersi nei dati di addestramento. Di seguito alcuni esempi:
    • Bias di popolazione – I dati demografici, le statistiche e i dati degli utenti scaturiti dalla piattaforma da cui si estraggono i dati differiscono rispetto alla popolazione target originale.
    • Societal bias – L’AI si comporta in modi che riflettono l’intolleranza sociale o la discriminazione istituzionale. A prima vista, gli algoritmi e i dati stessi possono sembrare imparziali, ma il loro output rafforza i pregiudizi della società.
    • Bias comportamentale – Scaturisce dalla differente reazione degli utenti rispetto alle stesse informazioni, ovvero, un’informazione può rappresentare idee totalmente diverse per persone di culture diverse, portando a direzioni di comunicazione completamente contrastanti e che possono riflettersi nel set di dati.

I rischi dei bias AI per le aziende: danneggiano reputazione e profitti e comportano risvolti legali e di compliance

Esistono diverse potenziali conseguenze negative dell’uso non etico dell’AI. Includono pregiudizi e discriminazioni, violazioni della privacy e dei diritti umani e danni non intenzionali.

I bias Ai generano conseguenze costose per le organizzazioni, i.e.: dalle implicazioni legali alle opportunità finanziarie perse, quindi, comprendere e gestire i pregiudizi è diventato un imperativo per le organizzazioni che adottano l’AI. Ne consegue che le organizzazioni devono essere consapevoli dei potenziali pregiudizi e di come ridurli. Di fatto la riduzione delle bias si traduce in modelli più accurati e una maggiore accuratezza produce migliori risultati aziendali.

Vediamo in dettaglio i vari impatti delle bias AI.

  • Pregiudizio e discriminazione – Una delle maggiori preoccupazioni con l’AI è il pregiudizio e la discriminazione. I sistemi di intelligenza artificiale sono imparziali quanto i dati su cui sono addestrati e, se i dati contengono pregiudizi intrinseci, questi pregiudizi si rifletteranno nelle decisioni del sistema di intelligenza artificiale. Ad esempio, un sistema di intelligenza artificiale utilizzato da un’azienda che assume può discriminare determinati candidati in base al sesso, alla razza o all’etnia. E semplicemente perché i dati utilizzati per addestrare il sistema contenevano schemi distorti. Ciò può perpetuare le disuguaglianze sociali esistenti e danneggiare i gruppi emarginati.
  • Occasioni perse – L’AI è spesso utilizzata per aiutare le organizzazioni a prevedere la domanda dei clienti in modo che possano disporre di forniture adeguate degli articoli giusti al momento giusto. Purtroppo, le bias nell’intelligenza artificiale possono eliminare tali equazioni e non intercettare le esigenze di alcuni clienti, lasciando le organizzazioni con troppi o troppo pochi prodotti e servizi rispetto alle variazioni di mercato.
  • Mancanza di fiducia da parte degli utenti – I dipendenti che vedono che gli investimenti AI della loro azienda forniscono scarsi risultati, saranno indotti a non fidarsi della tecnologia e quindi non la useranno, nonostante gli esperti di AI gestiranno i pregiudizi e migliorano i processi. Di conseguenza, le organizzazioni scopriranno che ci vorrà più tempo per incorporare le intuizioni generate dall’AI nel processo decisionale, quindi i ritorni sugli investimenti in AI saranno ritardati.

Come affermato da Svetlana Sicular, analista di Gartner: “Il più grande ostacolo al successo dell’AI è l’adozione dell’AI e il più grande ostacolo all’adozione dell’AI è la fiducia”.

  • Problemi normativi e di compliance – Un algoritmo con dati non di buona qualità che comportano bias nell’intelligenza artificiale in termini di razza o di genere possono impattare nelle decisioni di un prestito o linee di credito ed essere in contrasto con i requisiti normativi.

Inoltre, le organizzazioni si trovano a gestire i bias nell’intelligenza artificiale in termini di violazione della privacy e dei diritti umani. Di fatto, l’AI può essere utilizzata per raccogliere ed elaborare grandi quantità di dati personali, spesso senza il consenso o la conoscenza delle persone. Ciò può portare a violazioni della privacy e all’uso improprio di informazioni sensibili con conseguenti sanzioni.

In quest’ottica l’UE sta definendo un quadro giuridico – vedi anche il recente AI ACT – atto a rafforzare la privacy dei cittadini e creare quadri di rischio e requisiti di audit per la gestione di bias in termini di dati, la privacy e di rischi per la sicurezza. Ne consegue che le organizzazioni dovranno adottare approcci più ponderati per la progettazione e lo sviluppo di sistemi di AI per evitare i bias nell’intelligenza artificiale. Pertanto, sarà quanto mai necessario poter contare su una forte leadership che promuove le basi etiche dell’AI come pratica operativa fondamentale al fine di essere maggiormente conforme alle normative. Inoltre, si ritiene che in molte organizzazioni l’etica dell’AI diventerà un valore aziendale fondamentale.

Come rilevare i bias AI: strumenti e tecniche per identificarli

Quando si tratta di affrontare i bias nell’intelligenza artificiale, è importante capire che si tratta di una questione complessa che richiede un approccio ponderato. È fondamentale riconoscere che il pregiudizio dell’AI è radicato nei pregiudizi umani, quindi, rimuovere tali pregiudizi dal set di dati dovrebbe essere una priorità. Tuttavia, non è sempre semplice come eliminare etichette o rimuovere classi protette. In effetti, l’adozione di questi passaggi potrebbe effettivamente danneggiare l’accuratezza del modello.

Per ridurre al minimo i bias nell’intelligenza artificiale, è necessario seguire le migliori pratiche raccomandate dagli esperti del settore, in modo da ridurre la probabilità di perpetuare i pregiudizi esistenti e garantire che i sistemi di AI siano il più possibile equi e inclusivi.

Di seguito alcune pratiche da considerare:

  • Accettare l’esistenza di pregiudizi – Il primo passo per affrontare i pregiudizi nell’AI è riconoscerne l’esistenza. Ciò implica riconoscere che i sistemi di AI possono essere distorti e possono avere gravi conseguenze.
  • Identificare le fonti di bias – I pregiudizi possono derivare da varie fonti, come i metodi di raccolta, elaborazione e analisi dei dati, la progettazione e l’implementazione degli algoritmi e l’implementazione e l’uso dei sistemi di intelligenza artificiale. Pertanto, è necessario identificare e comprendere le fonti di bias che possono influenzare un progetto AI, i.e.: errori di campionamento, problemi di qualità dei dati, pregiudizi umani, presupposti algoritmici o fattori contestuali.
  • Valutare l’impatto e il rischio di parzialità – Il pregiudizio può avere diversi livelli di impatto e rischio a seconda del dominio, dello scopo e delle parti interessate del sistema di AI. Pertanto, è necessario valutare il potenziale impatto e il rischio di pregiudizi sulle persone e sui gruppi che potrebbero essere interessati dal sistema di AI, i.e.: gli utenti, i clienti, i dipendenti o la società in generale. Inoltre, è quanto mai fondamentale considerare le implicazioni legali, etiche e sociali del sistema di intelligenza artificiale, ovvero, la conformità alle normative, l’allineamento con valori e principi e il potenziale danno o discriminazione.
  • Mitigare e ridurre i bias – Il pregiudizio può essere mitigato e ridotto applicando varie tecniche e metodi, come la pulizia, l’aumento e il bilanciamento dei dati, l’equità algoritmica, la responsabilità e la spiegabilità e la supervisione, il feedback e l’intervento umano. Si tratta di selezionare e implementare le tecniche e i metodi appropriati per il sistema di AI, a seconda delle fonti, dell’impatto e del rischio di parzialità. Inoltre, si deve testare e valutare l’efficacia e i limiti delle tecniche e dei metodi applicati, oltre a documentare e comunicare le decisioni e le azioni intraprese.
  • Testare i sistemi di intelligenza artificiale: I sistemi di intelligenza artificiale devono essere testati su diversi set di dati in modo da identificare eventuali pregiudizi e garantire che i sistemi siano “giusti” ed equi per tutti. È doveroso sottolineare che, testando i sistemi su dati rappresentativi delle persone che saranno interessate dai sistemi, è possibile identificare eventuali pregiudizi e provvedere a correggerli.
  • Promuovere la trasparenza – È importante promuovere la trasparenza per creare fiducia nei sistemi di AI, ovvero, avere visibilità sui dati e sugli algoritmi utilizzati e sui processi decisionali coinvolti.

Formazione dei dipendenti per la prevenzione dei bias nell’intelligenza artificiale

Le aziende che perseguono la diversità, l’equità e l’inclusione devono impegnarsi a eliminare i bias nell’intelligenza artificiale iniziando, in primis, a eliminarli dalla loro organizzazione.

Pertanto, la formazione e lo sviluppo di una cultura basata sui principi di diversità, qualità e inclusione sono vitali per le organizzazioni che vogliono migliorare il modo con cui utilizzano l’AI e altre tecnologie di deep learning. Di fatto, le persone non sono sempre consapevoli dei propri pregiudizi impliciti o di come le pratiche organizzative possano introdurre possibili barriere.

Le organizzazioni per ovviare ai bias nell’intelligenza artificiale dovrebbero:

  • Costruire un team diversificato e inclusivo – È necessario garantire che i sistemi di AI siano costruiti tenendo conto dell’equità e dell’inclusività. Pertanto, è fondamentale avere un team diversificato di esperti che lavorano al loro sviluppo, includendo persone con background, esperienze e prospettive diverse che possono aiutare a identificare potenziali fonti di distorsione nei sistemi di AI.
  • Stabilire un quadro etico –È quanto mai fondamentale definire un quadro etico per il sistema di AI che delinei i valori e i principi che dovrebbero guidare l’uso della tecnologia e in grado di aiutare a identificare e ad affrontare le problematiche etiche, oltre a garantire che il sistema sia allineato con gli standard etici dell’organizzazione.
  • Coinvolgere le parti interessate – È doveroso ricordare che il pregiudizio e la discriminazione nei dati negli algoritmi di AI costituiscono non sono solo problemi tecnici, ma anche sociali ed etici. Pertanto, è quanto mai fondamentale coinvolgere e collaborare con varie parti interessate – i.e. i fornitori di dati, gli sviluppatori di algoritmi, gli utenti del sistema, gli esperti di dominio o i comitati etici – e coinvolgerli nella progettazione, nello sviluppo, nell’implementazione e nella valutazione del sistema di AI, oltre a richiedere il loro contributo, feedback e consenso. Si tratta di rispettare i diritti, gli interessi e le aspettative delle parti interessate e promuovere la fiducia e la trasparenza.
  • Monitorare e revisionare i bias – Il pregiudizio può cambiare ed evolversi nel tempo, poiché i dati, gli algoritmi e i contesti del sistema di AI possono cambiare. Si tratta di monitorare e revisionare le prestazioni e il comportamento del sistema di AI, oltre a verificare la presenza di eventuali segni di parzialità o discriminazione. Ne consegue che è necessario raccogliere e analizzare dati e feedback da varie fonti, i.e. registri di sistema, metriche, audit o recensioni degli utenti. Inoltre, è necessario sia aggiornare e migliorare il sistema di AI sia affrontare eventuali problemi o dubbi che potrebbero sorgere.
  • Condurre audit regolari – I modelli di AI non sono statici e possono cambiare nel tempo. Pertanto, è importante monitorare, in termini di bias, i sistemi di AI su base continuativa in modo da riuscire a identificare eventuali nuovi pregiudizi che potrebbero emergere man mano che i sistemi si evolvono, oltre a garantire che essi prendano decisioni eque e accurate per tutti.
  • Imparare e adattarsi continuamente – È importante riconoscere che affrontare i pregiudizi nell’AI è un processo continuo. Pertanto, i sistemi di AI dovrebbero essere aggiornati e rivisti man mano che vengono identificati nuovi pregiudizi e vengono sviluppate nuove tecniche per affrontarli.
  • Formazione e alfabetizzazione AI critica – I pregiudizi e la discriminazione nei dati e negli algoritmi dell’AI sono sfide complesse e dinamiche che richiedono apprendimento e formazione continui. È necessario tenersi aggiornati sulle ultime ricerche, le migliori pratiche e gli standard nel campo dell’AI. Gli addetti ai lavori dovranno avvalersi di linee guida ed essere supportati da mentori, colleghi o esperti che possano aiutare ad affrontare i potenziali pregiudizi e discriminazioni nei dati e negli algoritmi di AI.

Inoltre, è altrettanto importante condividere le conoscenze e le esperienze in modo da contribuire al progresso della AI, senza dimenticare di prendere in considerazione l’utente finale dei sistemi decisionali di AI e la misura in cui l’alfabetizzazione di questi sistemi può essere mirata e migliorata. Ovvero, si tratta, di migliorare l’alfabetizzazione critica dell’AI in modo tale che l’utente sia in grado di conoscere i dettagli in termini di attributi utilizzati in un set di dati, nonché la capacità di confrontare le decisioni sulla base dell’Explainability e delle regole morali alla base di tali scelte.

Tecnologie emergenti per la prevenzione dei bias AI

Per garantire l’imparzialità dei sistemi di AI, è essenziale utilizzare una serie di tecniche nelle diverse fasi del processo che includono metodi di pre-elaborazione, algoritmici e post-elaborazione. L’incorporazione di questi approcci facilita la mitigazione dei bias nell’intelligenza artificiale, promuovendo un ambiente più inclusivo per tutti.

Vediamo di che si tratta.

Tecniche di pre-elaborazione – Esse comportano la trasformazione dei dati di input prima che vengano inseriti nell’algoritmo di apprendimento automatico, mitigandone i pregiudizi e creando un set di dati più diversificato e rappresentativo. Alcune tecniche di pre-elaborazione includono:

  • Data Augmentation – Questa tecnica genera nuovi “punti” dati per aumentare la rappresentazione dei gruppi sottorappresentati nel set di dati. Ad esempio, se il set di dati contiene meno campioni di un particolare gruppo demografico, è possibile utilizzare maggiori dati per aumentarne le dimensioni e la diversità.
  • Bilanciamento e campionamento – Queste tecniche sono comunemente utilizzate per garantire che un set di dati sia, in proporzione, rappresentativo di tutti i gruppi. Di fatto, si utilizzano metodi come il sovra-campionamento e il sotto-campionamento che contribuiscono a ridurre le distorsioni e migliorare la precisione del modello.

Tecniche algoritmiche – La “regolazione” dell’algoritmo di apprendimento automatico stesso è una strategia per mitigare i pregiudizi, e che può essere realizzata attraverso tecniche algoritmiche. Tali tecniche includono:

  • Regolarizzazione – Si tratta di una tecnica che può aiutare a prevenire l’overfitting dei dati di addestramento, aggiungendo un termine di penalità alla funzione di perdita dell’algoritmo. Questo approccio può aiutare a ridurre i bias e migliorare l’accuratezza delle previsioni del modello negli scenari del mondo reale.
  • Adversarial Training – Questa tecnica comporta l’esposizione del modello a esempi contraddittori progettati per indurre il modello a fare previsioni errate. Il modello, in questo modo, viene addestrato a riconoscere e a adattarsi a questi tipi di esempi e diventa più robusto e meno soggetto a bias.
  • Vincoli di equità – Si tratta di imporre vincoli al processo di ottimizzazione del modello per garantire che produca risultati equi per tutti i gruppi. Questo approccio può aiutare a mitigare gli effetti del pregiudizio e della discriminazione nel processo decisionale del modello, promuovendo l’equità e l’inclusività.

Tecniche di post-elaborazione – Esse mirano a rilevare e rimuovere i pregiudizi dagli algoritmi di apprendimento automatico, analizzando i loro risultati dopo l’addestramento. Alcuni esempi di tali tecniche sono:

  • Bias Metrics – Questa tecnica comporta la misurazione del grado di bias nelle previsioni del modello, utilizzando metriche quantitative – i.e. quote equalizzate e pari opportunità. Queste metriche possono essere utilizzate per identificare e correggere i bias nel modello.
  • Spiegabilità – Grazie a questa tecnica è possibile rendere le previsioni del modello più interpretabili – fornendo spiegazioni ed evidenziando le caratteristiche più importanti nel processo decisionale – e, al contempo, aumentare la trasparenza e la responsabilità.
  • Test di equità – Si tratta di effettuare il test dell’equità del modello, utilizzando vari metodi di test quali: la parità statistica, l’analisi dell’impatto e l’equità individuale. Il test, di fatto, permette di identificare eventuali pregiudizi che potrebbero essere sfuggiti durante la fase di formazione.

Diamo un’occhiata ad alcuni strumenti che limitano e prevengono i pregiudizi dell’intelligenza artificiale.

Come eliminare i bias AI: tecnologie e metodi di modellazione dati

  • ABM AI Fairness 360- Il set di strumenti “AI Fearness360 e AIF360”, sviluppato da IBM Research, è una raccolta di misurazioni all-inclusive open source per confermare pregiudizi involontari nei database e nei modelli di machine learning. Questi strumenti costituiscono un gruppo di algoritmi all’avanguardia che possono ridurre i pregiudizi dell’AI. Il pacchetto AIF 360, oltre a una raccolta di strumenti, include un’esperienza interattiva che offre una breve panoramica delle potenziali applicazioni del pacchetto. Questa esperienza interattiva può essere utilizzata per determinare quali misure e quali algoritmi sono più adatti a una particolare situazione. Inoltre, sono stati creati per essere open source per promuovere l’aggiunta di nuove misurazioni e metodi.
  • Farilearn – Gli sviluppatori e i data scientist possono valutare e migliorare l’equità nei loro sistemi di AI con l’aiuto di questo toolbox open source offerto da Microsoft. Fairlearn è costituito da algoritmi di riduzione di bias e una console interattiva oltre ad offrire materiali didattici sulle procedure organizzative e sulle tecniche per ridurre i pregiudizi dell’AI, nonché una libreria Python per valutare e migliorare l’equità dell’AI. Il toolkit Fairlearn è stato creato con la consapevolezza che esistono diverse articolate cause di pregiudizio – alcune sociali ed altre tecniche – rendendo l’equità nei sistemi di AI un dilemma tecnicamente sociale.
  • FairLens – Un pacchetto Python open source che permette di rilevare chiaramente i bias e valutare l’equità dei dati. Esso è in grado sia di fornisce diversi indicatori di “uguaglianza” – attraverso una varietà di fattori legalmente riconosciuti tra cui età, etnia e sesso – sia rivelare immediatamente i pregiudizi.
  • Aequitas – Una cassetta degli attrezzi open source adattabile che esamina i pregiudizi dell’AI. L’applicazione può essere utilizzata per valutare le previsioni degli strumenti di analisi del rischio utilizzati nei settori della giustizia penale, della scuola, della sanità, dei servizi per l’impiego, ecc. Grazie al toolkit è possibile rilevare atti o trattamenti che sono di parte e non rappresentano adeguatamente la popolazione nel suo insieme.
  • TCAV – (Test With Connection Active) – Un progetto tecnologico e di ricerca di Google, presentato alla conferenza Google I/O del 2019 per trovare pregiudizi nei modelli di machine learning. I modelli possono essere esaminati dal sistema per trovare componenti che potrebbero essere distorti a seconda di fattori come etnia, ricchezza, geografia, ecc.
  • Strumento What-If di Google – Esso è stato sviluppato dai ricercatori e designer di Google come uno strumento utile per chi produce algoritmi di machine learning. Gli utenti – grazie all’aiuto di questa applicazione open source interattiva – possono esplorare graficamente i modelli di machine learning. Di fatto, gli strumenti what-if possono valutare set di dati per mostrare come funzionano i modelli di machine learning in varie circostanze e fornire prospettive per spiegare le prestazioni del modello. Lo strumento What-If consente, inoltre, agli utenti di modificare direttamente i campioni di dati e di analizzare gli effetti di tali modifiche utilizzando il modello di apprendimento automatico corrispondente.

È possibile identificare tendenze di pregiudizio – non distinguibili in precedenza – esaminando l’equità algoritmica identificata nel programma. Inoltre, l’interfaccia What-user-friendly rende più semplice per tutti gli utenti – non solo per i programmatori – scoprire e verificare modelli basati sull’apprendimento automatico e trovare soluzioni alle loro sfide.

  • Skater – Esso è una libreria Python di Oracle per un modello complesso o black-box. Lo strumento utilizza una serie di tecniche, inclusi i grafici di dipendenza parziale e la spiegazione agnostica del modello interpretabile locale (LIME), per chiarire la relazione tra i dati ricevuti da un modello e gli output che produce. Skater in grado di rilevare i bias comprendendo come un modello fa una previsione in base ai dati che riceve. Questo processo è particolarmente utile in applicazioni come la modellazione del rischio di credito, in cui un data scientist potrebbe dover spiegare perché un modello ha negato a un cliente una carta di credito.
  • FairML – FairML è un framework per rilevare i bias nei modelli di machine learning (ML) Esso è in grado di determinare il valore relativo e il significato delle caratteristiche utilizzate nel modello di ML per trovare bias sia nel modello lineare sia in quello non lineare. FairML utilizza caratteristiche come genere, razza, religione, ecc. e per scoprire informazioni che potrebbero essere distorte. Inoltre, misura la pertinenza dell’input del modello in modo da determinarne l’equità e controllare i modelli di previsione.
  • Crowdsourcing – Il crowdsourcing può essere utilizzato per esaminare vari aspetti del problema di bias AI e trovare potenziali fattori che causano pregiudizi. Il crowdsourcing viene utilizzato principalmente per eliminare i pregiudizi scaturiti dalla raccolta e garantire la pulizia dei dati propedeutica alla “preparazione” dei dati, ovvero la prima e più cruciale fase in ogni applicazione di machine learning.
  • Local Interpretable Model Agnostic Explanations (LIME) – Le applicazioni di machine learning oramai sono integrate in vari ambiti della nostra vita e siamo portati a confidare completamente nelle previsioni fornite da queste applicazioni. Tuttavia, qualsiasi imprecisione in queste previsioni potrebbe avere conseguenze disastrose. Pertanto, è quanto mai fondamentale comprendere perché il modello sta producendo queste previsioni. L’analisi del comportamento del modello può aiutare a identificare i pregiudizi e infine a ridurli. Di fatto, LIME è uno strumento utilizzato per spiegare il comportamento di vari modelli di apprendimento automatico e offre la possibilità di modificare molti aspetti del modello in modo da comprenderlo meglio e, se necessario, identificare eventuali bias.

Conclusioni

Il pregiudizio è un tratto umano e può essere riflesso e incorporato in tutto ciò che creiamo, in particolare quando si tratta di tecnologia. I bias nell’intelligenza artificiale costituiscono un problema critico che deve essere affrontato per evitare gravi conseguenze e che richiede un approccio olistico in grado di garantire: set di dati diversi e rappresentativi; maggiore trasparenza, inclusività, responsabilità imparzialità e affidabilità dei sistemi di AI, l’esplorazione di paradigmi alternativi di AI che diano priorità all’equità e alle considerazioni etiche.

Articoli correlati

Articolo 1 di 4