Approfondimento

Un’intelligenza artificiale più equa e imparziale: come affrontare il problema dei bias

Perché si verifica la distorsione nell'AI e l'impatto sul business dell'AI distorta. Alcuni esempi e come creare un'AI imparziale [...]
Giovanni Sisinna

Direttore Program Management www.linkedin.com/in/giovannisisinna/

bias AI
  1. Home
  2. Intelligenza Artificiale
  3. Un’intelligenza artificiale più equa e imparziale: come affrontare il problema dei bias

Non si può negare che l’intelligenza artificiale abbia cambiato le regole del gioco quando si tratta di aumentare l’efficienza e la produttività in vari settori. Tuttavia, c’è anche un aspetto negativo dell’AI che ha ricevuto più attenzione negli ultimi anni: il rumore o la distorsione, altrimenti detto “bias”.

I computer non sono naturalmente prevenuti, ma possono facilmente diventarlo, se i loro algoritmi non sono progettati con sufficiente attenzione o se vengono addestrati su set di dati che contengono essi stessi pregiudizi. Ad esempio, se un sistema di riconoscimento facciale è addestrato solo su immagini di persone bianche, è probabile che funzioni male quando si tenta di riconoscere i volti di altri gruppi etnici.

Il problema con l’AI distorta è che può portare a un processo decisionale ingiusto e discriminatorio. Ad esempio, se un datore di lavoro utilizza un sistema di intelligenza artificiale per selezionare i candidati e il sistema è prevenuto nei confronti delle donne, ciò potrebbe portare ad un minor numero di donne assunte. Questo aspetto può accentuarsi ulteriormente se l’algoritmo continua ad elaborare dati e a “imparare” dagli stessi risultati distorti. In questo modo, i sistemi di intelligenza artificiale soggetti a bias possono perpetuare la discriminazione e la disuguaglianza nelle nostre società.

Esistono molti modi per combattere il rumore e la distorsione nell’intelligenza artificiale, ma è importante, prima di tutto, essere consapevoli del problema. Solo dopo si possono adottare misure per garantire che i sistemi di AI siano più equi e giusti.

Perché si verifica la distorsione nell’AI

L’AI è spesso apprezzata come uno strumento che può aiutare a rimuovere i pregiudizi umani dal processo decisionale. Tuttavia, l’AI non è immune da pregiudizi e può essa stessa amplificare pregiudizi esistenti o introdurne di nuovi.

Il rumore dell’AI si verifica quando un algoritmo mostra pregiudizi contro o a favore di determinati gruppi di persone. Ciò può accadere per una serie di motivi, tra cui il modo in cui i dati vengono raccolti ed etichettati, le scelte fatte da coloro che progettano e gestiscono gli algoritmi e persino l’hardware utilizzato per eseguirli.

In generale, la distorsione può insinuarsi nei sistemi di intelligenza artificiale in diversi modi.

  • Dati di apprendimento non rappresentativi: un modo comune è con l’uso dei dati di apprendimento. Se i dati utilizzati per addestrare un sistema di AI non sono rappresentativi del mondo reale, è probabile che il sistema risulti distorto. Ad esempio, se un sistema viene addestrato su dati per lo più maschili, probabilmente sarà prevenuto nei confronti delle donne.
  • Errori dei dati di apprendimento: se i dati di apprendimento contengono errori o imprecisioni e se un sistema di intelligenza artificiale, ad esempio, viene addestrato su dati imprecisi sui tassi di criminalità, potrebbe giungere a conclusioni errate su quali gruppi di persone hanno maggiori probabilità di commettere crimini.
  • Algoritmi distorti: un altro modo in cui i pregiudizi possono entrare nei sistemi di intelligenza artificiale è attraverso l’uso di algoritmi soggetti a bias. Alcuni algoritmi hanno maggiori probabilità di altri di produrre risultati errati. Ad esempio, gli alberi decisionali tendono ad essere più accurati rispetto ad altri tipi di algoritmi di machine learning quando sono disponibili pochi dati di apprendimento; tuttavia, sono anche più soggetti all’overfitting, che può causare bias. Ad esempio, un algoritmo potrebbe assegnare punteggi più alti ai candidati con determinati tipi di lauree provenienti da scuole d’élite. Ciò si tradurrebbe in un sistema parziale che avvantaggia alcune persone rispetto ad altre.
  • Umani: gli esseri umani che progettano e gestiscono sistemi di intelligenza artificiale possono introdurre pregiudizi attraverso le proprie valutazioni e il personale processo decisionale. Un programmatore può inavvertitamente introdurre bias in un sistema di intelligenza artificiale utilizzando i propri pregiudizi personali quando sceglie quali dati utilizzare o come progettare gli algoritmi. Ad esempio, se un programmatore costruisce un sistema di intelligenza artificiale che dovrebbe identificare dei volti, potrebbe inavvertitamente introdurre bias utilizzando solo immagini di persone che gli somigliano. Di conseguenza, il sistema potrebbe avere difficoltà a riconoscere le persone che non gli assomigliano.

In particolare, i problemi possono derivare da diverse cause:

  • Mancanza di dati: se non ci sono dati sufficienti per addestrare un modello di machine learning, sarà difficile evitare distorsioni.
  • Dati errati: se i dati utilizzati per addestrare un modello di machine learning sono imprecisi o non rappresentativi, sarà più probabile che producano risultati distorti.
  • Overfitting: quando un modello di machine learning (ML) è troppo specializzato sui dati di apprendimento, potrebbe non riuscire a generalizzare bene con nuovi dati e produrre risultati distorti.
  • Underfitting: se un modello di ML non fosse abbastanza generalizzato, potrebbe anche non riuscire a generalizzare bene e produrre risultati distorti.
  • Distorsioni di selezione: se i dati di apprendimento utilizzati per addestrare un modello di ML vengono selezionati in modo non casuale si possono introdurre errori nei risultati.
  • Distorsioni di campionamento: le distorsioni di campionamento possono verificarsi quando i dati di apprendimento utilizzati per addestrare un modello di ML non rappresentano accuratamente la popolazione nel suo insieme. Questo può portare a risultati distorti.
  • Distorsioni dell’etichetta: le distorsioni delle etichette si verificano quando le etichette assegnate agli esempi utilizzati per il processo di apprendimento non sono accurate o coerenti con la realtà. Ciò può far sì che un algoritmo di ML produca risultati distorti.
  • Pregiudizio: se gli esseri umani che stanno progettando o sviluppando un algoritmo di ML sono prevenuti è possibile introdurre bias nei risultati.
  • Esclusione: se determinati gruppi di persone vengono esclusi dai dati di apprendimento o dall’utilizzo di un algoritmo di ML, ciò può portare a errori nei risultati.
  • Fattori sociali: fattori sociali come razza, sesso e stato socioeconomico possono influenzare il modo in cui gli algoritmi di ML vengono progettati, utilizzati e interpretati, portando a bias nei risultati.
WHITEPAPER
AZIENDA RETAIL: ecco i 15 motivi per cui hai bisogno dell'Intelligenza Artificiale!
Intelligenza Artificiale
Retail

Tuttavia, è importante notare che non tutti i casi di bias dell’AI sono accidentali; alcuni possono essere introdotti deliberatamente per scopi dannosi. Ad esempio, un algoritmo utilizzato per prevedere i tassi di recidiva è risultato essere razzista nei confronti degli afroamericani. In questo caso, gli sviluppatori dell’algoritmo erano consapevoli del pregiudizio ma non hanno preso provvedimenti per risolverlo perché credevano che il pregiudizio fosse giustificato dai dati del “mondo reale” sui tassi di criminalità.

Il potenziale di distorsione nell’AI è una seria preoccupazione. I pregiudizi possono portare a risultati ingiusti e discriminatori per individui e gruppi di persone. Può anche minare la fiducia del pubblico nei sistemi di AI. Pertanto, è importante essere consapevoli del potenziale pregiudizio nell’AI e adottare, ove possibile, misure per evitarlo.

AI bias

L’impatto sul business dell’AI distorta

Quando si verifica un pregiudizio nei sistemi di AI, questo può avere un impatto significativo sulle aziende che utilizzano o sono interessate da tali sistemi. Alcuni dei potenziali impatti del bias includono:

  • Risultati discriminatori: se un sistema di AI è prevenuto nei confronti di determinati gruppi di persone, ciò può portare a risultati discriminatori quando il sistema viene utilizzato per scopi decisionali. Ad esempio, se un chatbot di reclutamento viene sviluppato utilizzando dati che contengono pregiudizi di genere, può consigliare lavori agli uomini più spesso rispetto alle donne.
  • Perdita di business: le aziende che utilizzano sistemi di AI che mostrano comportamenti distorti possono perdere quei clienti che sono influenzati negativamente da tale pregiudizio. Inoltre, altre aziende potrebbero rifiutarsi di collaborare con un’azienda, se ritengono che stia utilizzando sistemi di AI non equi.
  • Pubblicità negativa: la distorsione nell’AI può anche portare a pubblicità negativa per le aziende che utilizzano tale tecnologia, nonché per la tecnologia stessa. Ciò può danneggiare la reputazione di un’azienda e rendere difficile l’acquisizione di nuove opportunità di business.
  • Sanzioni normative: in alcuni casi, le agenzie di regolamentazione possono penalizzare le aziende per l’utilizzo di sistemi di AI distorti se tali pregiudizi determinano discriminazioni illegali o altre violazioni di leggi o regolamenti. Ad esempio, se un algoritmo di credit scoring nega ingiustamente prestiti a determinati gruppi di persone in base alla loro razza o etnia, la società potrebbe essere multata da una commissione per le pari opportunità.

Ecco alcuni esempi pratici in cui l’AI distorta può avere un impatto sulle aziende:

  • Reclutamento: Un’AI soggetta a bias e applicata in task di selezione del personale potrebbe impedire alle aziende di individuare i migliori talenti disponibili. Se i candidati venissero esclusi in base a dati imprecisi, questo potrebbe avere, a lungo termine, un impatto negativo sull’azienda.
  • Marketing: se il team di marketing di un’azienda utilizzasse un AI distorta, i pregiudizi potrebbero portare alcuni clienti a essere contattati più spesso di altri. Ciò potrebbe creare un disequilibrio e far sì che alcuni clienti si sentano trascurati o non importanti.
  • Vendite: come il marketing, se i team di vendita utilizzano un’AI parziale, potrebbero prestare più attenzione a determinati clienti rispetto ad altri. Ciò potrebbe nuovamente portare a sentimenti di abbandono o disaffezione tra alcuni clienti.
  • Servizio clienti: la distorsione nell’AI può anche influenzare il modo in cui vengono gestite le richieste del servizio clienti. Se venisse data priorità a determinati tipi di richieste del servizio clienti rispetto ad altri, ciò potrebbe creare frustrazione e scontento tra coloro che ritengono che i loro bisogni non siano adeguatamente soddisfatti.
  • Sviluppo del prodotto: se un’azienda facesse affidamento sull’AI per lo sviluppo del prodotto, il pregiudizio potrebbe portare a realizzare prodotti non così efficaci come dovrebbe essere, danneggiare la reputazione dell’azienda e rendere difficile la competizione con i concorrenti che non causano analoghi problemi ai loro clienti.
  • Gestione delle prestazioni dei dipendenti: un altro modo in cui i pregiudizi nell’AI possono danneggiare le aziende è attraverso la gestione delle prestazioni dei dipendenti. Se i dipendenti venissero valutati sulla base di dati distorti, ciò potrebbe portare a problemi di equità e problemi motivazionali.
  • Previsioni finanziarie: la distorsione negli strumenti di previsione finanziaria può avere effetti disastrosi sulle aziende. Se gli investitori ottengono informazioni errate sulle prospettive future di un’azienda, possono scegliere di non investire, il che potrebbe danneggiare l’attività.
  • Trading di azioni: come le previsioni finanziarie, anche l’AI distorta utilizzata per il trading di azioni può avere conseguenze devastanti. Se le decisioni sulle negoziazioni venissero prese sulla base di dati errati, si potrebbero causare pesanti perdite per gli investitori e per l’azienda stessa.
  • Intelligenza competitiva: nel mondo degli affari odierno, avere accesso a un’intelligenza competitiva accurata e aggiornata è fondamentale. Se l’AI di un’azienda è distorta, potrebbe portare a prendere, in generale, decisioni basate su informazioni errate e mettere in grave svantaggio l’intera azienda.

Questi esempi illustrano come il pregiudizio dell’AI possa involontariamente comportare iniquità e disparità di trattamento in alcuni casi specifici, ma potrebbero anche avere impatti di vasta portata al di là dei singoli casi, con il potenziale di distorcere intere aziende, mercati e economie.

L’impatto sul business dell’AI distorta dipende dal particolare settore, nonché dalla natura e dall’entità della distorsione stessa; tuttavia, è chiaro che le aziende devono prestare molta attenzione a questo problema per prevenire conseguenze dannose per i loro clienti o dipendenti e, in definitiva, per la società nel suo insieme.

Esempi di casi parziali

I sistemi di AI sono distorti se producono risultati che favoriscono o svantaggiano sistematicamente un particolare gruppo di persone. Ci sono stati diversi casi noti in cui si è riscontrato questo problema.

  • Riconoscimento delle immagini di Google: nel 2016, il software di riconoscimento delle immagini di Google ha suscitato grande scalpore quando ha etichettato i neri come “gorilla”. Ciò è accaduto perché i dati di apprendimento non contenevano abbastanza immagini di persone di colore; quindi, l’algoritmo non è stato in grado di identificarle correttamente. La società è stata costretta a scusarsi e ad apportare modifiche al suo algoritmo.
  • Riconoscimento facciale di Apple: nel 2017, il software di riconoscimento facciale di Apple è risultato meno accurato nell’identificare i volti afroamericani rispetto ai volti bianchi. Da allora la società ha apportato miglioramenti all’algoritmo.
  • Tay AI Chatbot di Microsoft: nel 2016, Microsoft ha lanciato una chatbot AI chiamato Tay che ha iniziato rapidamente a fare commenti razzisti e sessisti su Twitter. Il bot venne disattivato dopo poche ore.
  • IBM Watson: IBM Watson è un sistema di cognitive computing che è stato utilizzato in una varietà di applicazioni, inclusi servizi sanitari e finanziari. Tuttavia, è stato anche criticato per il suo potenziale di perpetuare il pregiudizio di genere, poiché si basava su set di dati di formazione che contenevano linguaggio o stereotipi sessisti.
  • Ricerca di immagini di Google: uno studio ha rilevato che l’algoritmo di ricerca di immagini di Google mostrava un pregiudizio nei confronti delle immagini di persone bianche durante la ricerca di determinati termini.
  • Software di riconoscimento di Amazon: nel 2018, è stato riscontrato che il software di riconoscimento facciale di Amazon aveva maggiori probabilità di identificare erroneamente donne e persone di colore come criminali.
  • Mechanical Turk di Amazon: Mechanical Turk è una piattaforma che consente alle aziende di esternalizzare le attività a lavoratori umani. Tuttavia, uno studio della Carnegie Mellon University ha rilevato che la piattaforma era prevenuta nei confronti dei lavoratori di alcuni paesi, tra cui India e Pakistan.
  • Condivisione di foto di Instagram: è stato scoperto che la popolare app sopprimeva i post di #blacklivesmatter e altri hashtag di giustizia sociale.
  • App di Twitter: l’algoritmo degli argomenti di tendenza è stato utilizzato da bot e troll per inserire informazioni false o fuorvianti nei feed degli utenti.
  • App di Facebook: l’algoritmo del feed di notizie è stato accusato di censura dopo che è stato scoperto che le notizie dei conservatori venivano nascoste nei feed degli utenti.
  • Strumento di recidiva Compas di ProPublica: nel 2016, ProPublica ha pubblicato un’indagine su uno strumento di recidiva utilizzato dai tribunali degli Stati Uniti che è risultato essere prevenuto nei confronti degli imputati neri.
  • Algoritmi Catch-22 nelle pratiche di assunzione: le aziende hanno iniziato a utilizzare sempre più spesso algoritmi per selezionare i candidati al lavoro, ma alcuni algoritmi contenevano pregiudizi nascosti che si traducono in discriminazioni contro determinati gruppi di persone come donne e minoranze.
  • Bolle di filtro: siti di social media come Facebook o YouTube utilizzano algoritmi per personalizzare il feed di notizie di ciascun utente in base al proprio comportamento passato, ma ciò può comportare “bolle di filtro” in cui le persone vedono solo contenuti che concordano con le loro convinzioni.
  • Polizia pre-crimine: in molti dipartimenti di polizia negli Stati Uniti, la segnalazione di crimini viene effettuata attraverso un sistema automatizzato che si basa sull’AI per identificare potenziali crimini. Tuttavia, questi sistemi possono essere prevenuti nei confronti di determinati gruppi di persone, portando a ipotesi di tassi di criminalità ingiustamente elevati per quei gruppi.
  • Ageismo: nel 2017, l’assistente sanitario Watson di IBM ha fornito raccomandazioni terapeutiche diverse per i malati di cancro a seconda della loro età. Il sistema raccomandava opzioni di trattamento meno aggressive per i pazienti più anziani, anche se la ricerca ha dimostrato che i pazienti più anziani potevano rispondere altrettanto bene – o anche meglio – ai trattamenti aggressivi rispetto ai più giovani. Dopo questo problema, IBM ha aggiornato il proprio sistema in modo da non tenere più conto dell’età quando si formulavano raccomandazioni terapeutiche.

Molti tipi di pregiudizi possono insinuarsi nei sistemi di AI: ovunque ci sia discriminazione nella società, c’è il rischio che i sistemi possano amplificare queste disparità e, sebbene una certa quantità di pregiudizio sia inevitabile, ci sono determinate misure e accorgimenti che devono essere adottati per mitigarne gli effetti.

AI bias

Come creare un’AI imparziale

È chiaro che il pregiudizio nell’AI è un problema serio con conseguenze potenzialmente dannose. Vi sono determinate azioni che possono essere intraprese per evitare o limitare il problema del bias.

  • Diversificazione dei dati: bisogna assicurarsi che i dati utilizzati per addestrare il sistema di AI siano i più diversi possibili, puliti e imparziali. Questo richiede l’inclusione e l’utilizzo di dati provenienti da diverse fonti: regioni geografiche, gruppi socioeconomici (inclusi quelli minoritari), generi e siano rappresentativi del mondo reale. Più dati si riesce a fornire all’AI e più questa sarà in grado di imparare e generalizzare da essi.
  • Pre-elaborazione dei dati: la preelaborazione dei set di dati può rimuovere alcune fonti di distorsione. Dati puliti e imparziali assicurano che non vi siano errori o imprecisioni e contribuiranno a garantire che l’AI non risulti distorta verso una particolare prospettiva.
  • Evitare gli stereotipi nei dati: gli stereotipi possono facilmente radicarsi in un’AI se vengono utilizzati come parte del set di dati di apprendimento. Bisogna evitare questo rischio assicurandosi che i tuoi dati di apprendimento siano privi di stereotipi e altri pregiudizi.
  • Aumento dei dati: un altro modo per ridurre i bias è attraverso l’aumento dei dati, che comporta, partendo dall’acquisizione di una piccola quantità di dati, la generazione artificiale di altri dati a partire da questi. Questo può aiutare a migliorare l’accuratezza del sistema dell’AI rendendola più resistente alle modifiche dei dati di input.
  • Scelta dell’algoritmo appropriato: non tutti gli algoritmi sono uguali e alcuni sono più adatti per determinate attività rispetto ad altri. È necessario individuare il migliore in base alle esigenze ed essere consapevole dei potenziali pregiudizi che potrebbero insinuarsi nelle scelte di progettazione degli algoritmi.
  • Progettazione dell’algoritmo: gli algoritmi possono essere resi più equi incorporando tecniche come il debiasing e la convalida incrociata. Il debiasing implica la rimozione di informazioni che potrebbero portare a iniquità, come le informazioni demografiche sugli individui. La convalida incrociata aiuta a evitare l’overfitting dei modelli ai set di dati di apprendimento: questo accade quando un modello funziona bene su un set di apprendimento ma non generalizza bene con nuovi dati.
  • Addestrare l’AI su più attività: può essere utile addestrare l’AI su più compiti in modo che possa imparare a vedere il mondo da diverse angolazioni. Ciò contribuirà a prevenire l’insorgere di pregiudizi.
  • Incoraggiare l’esplorazione: è opportuno incoraggiare l’AI a esplorare diverse opzioni e percorsi. Questo l’aiuterà a trovare nuove soluzioni ed evitare di rimanere bloccata in ottimi locali che potrebbero essere di parte.
  • Diversità del personale: aumentare la diversità tra coloro che progettano e addestrano i sistemi di AI. Con un gruppo più diversificato di persone che lavorano sull’AI, si può ridurre la possibilità che pregiudizi pericolosi vengano involontariamente incorporati nel sistema.
  • Usare il feedback umano: se si utilizza il feedback umano per orientare l’AI durante l’apprendimento, è necessario assicurarsi di farlo con saggezza. Il feedback dovrebbe provenire da un gruppo eterogeneo di persone e bisogna prestare attenzione a non introdurre inavvertitamente pregiudizi.
  • Attenzione ai tipi comuni di bias: ci sono molti tipi di bias che possono insinuarsi in un sistema di AI, come i bias di conferma, di selezione e bias cognitivi. Bisogna essere consapevoli di questi rischi e adottare misure per evitarli durante la progettazione del sistema.
  • Mettere tutto in discussione: non bisogna dare nulla per scontato quando si progetta un sistema di AI. È opportuno mettere in discussione ogni ipotesi e ogni dato. Questo aiuterà nell’individuare eventuali pregiudizi prima che questi si manifestino.
  • Politiche e procedure corrette: è importante disporre e mettere in atto politiche e procedure che impediscano agli esseri umani di introdurre pregiudizi nel sistema e che consentano, a coloro i quali sviluppano e gestiscono sistemi di AI, un efficace controllo e monitoraggio delle prestazioni del sistema al fine di garantire che l’output sia esente da bias nei confronti di un particolare gruppo di persone.
  • Responsabilità: è fondamentale prestare particolare attenzione ad un responsabile controllo di tutto il processo di sviluppo di un sistema di AI, compresi i controlli regolari sui progressi e le prestazioni rispetto agli obiettivi.
  • Verificare regolarmente la presenza di bias: è necessario verificare, valutare e misurare con precisione le prestazioni rispetto a specifici obiettivi del sistema per rilevare eventuali segnali di bias. Questo può essere fatto con unit test, test A/B o semplicemente osservando l’output del sistema nel tempo. Questo aiuterà a identificare le aree in cui bisogna apportare miglioramenti.
  • Verificare l’equità: prima di utilizzare un sistema di AI, bisogna testarlo per vedere se produce risultati equi. Esistono diversi modi per farlo, inclusi i test per la parità demografica (cioè, garantire che il sistema tratti tutti i gruppi allo stesso modo), l’equità individuale (cioè, garantire che individui simili siano trattati in modo simile dal sistema) e l’equità sociale (cioè, garantire che il sistema non rafforzi le disuguaglianze sociali esistenti).
  • Affrontare precocemente le distorsioni: provare a gestire queste distorsioni già nella fase iniziale, incorporando metodi come la convalida incrociata k-fold che possono aiutare a mitigarle.
  • Utilizzare strumenti di trasparenza come lo strumento What If di Google che consente agli utenti di indagare sui possibili effetti dei loro modelli di machine learning. Tali strumenti, essendo proattivi nell’identificare i problemi, possono evitare insidie che potrebbero comportare risultati imprecisi o ingiusti nel sistema di AI in sviluppo.
  • Aggiornarsi: migliorare la propria competenza nell’ambito dell’AI e rimanere costantemente aggiornati sulle ultime ricerche e tendenze sugli sviluppi di quest’area è fondamentale per progettare sistemi migliori.
  • AI spiegabile: I sistemi di AI dovrebbero essere in grado di spiegare le loro decisioni e azioni agli esseri umani in un modo che le loro scelte siano comprensibili. Tecniche di “Explainable AI” possono essere utilizzate per fornire trasparenza sul funzionamento di un sistema di AI in modo da poter esaminare le decisioni.
  • Monitorare: è importante monitorare i sistemi di AI dopo che sono stati implementati e attivati. Questo al fine che eventuali distorsioni che dovessero verificarsi possano essere rilevate e corrette.

Conclusione

Altri aspetti da tenere presente per progettare una AI migliore e imparziale sono:

  • Lo sviluppo dell’AI dovrebbe essere aperto e trasparente, in modo che le persone possano capire come funziona
  • Gli obiettivi dei sistemi di AI dovrebbero essere allineati con i valori e gli obiettivi umani, piuttosto che essere guidati esclusivamente da profitti o altri motivi egoistici.
  • La tecnologia AI dovrebbe essere accessibile a tutti e non solo a coloro che possono permettersela.
  • Lo sviluppo dell’AI dovrebbe considerare l’impatto globale della tecnologia, comprese questioni come la sostenibilità ambientale e la disuguaglianza sociale.
  • Le autorità di regolamentazione e i responsabili politici dovrebbero avere una chiara comprensione della tecnologia dell’AI e delle sue implicazioni prima di attuare leggi o regolamenti ad essa pertinenti.

Con un’attenta progettazione e implementazione, è possibile creare sistemi di AI imparziali ed equi. Questo è necessario non solo per motivi di equità, ma anche perché il bias condiziona le AI rendendole oggettivamente meno efficaci di quelle imparziali. L’equità dovrebbe essere un principio chiave nello sviluppo di qualsiasi sistema di intelligenza artificiale.

 

https://www.linkedin.com/in/giovannisisinna/

WHITEPAPER
Cognitive Experience Center: ecco l'AI che può davvero supportare i tuoi operatori!
Intelligenza Artificiale
Networking

 

FacebookTwitterLinkedIn
FacebookTwitterLinkedIn