L’AI del futuro deve rimuovere il passato coloniale

Un recente saggio dimostra come applicare la riflessione teorica sulla decolonizzazione ai problemi posti dalle intelligenze artificiali possa essere la chiave per capirne le cause profonde e ridisegnare le tecnologie in modo da tenere in considerazione le necessità dei popoli più vulnerabili [...]
decolonizzare AI
  1. Home
  2. Intelligenza Artificiale
  3. L’AI del futuro deve rimuovere il passato coloniale

Le tecnologie di intelligenza artificiale (AI) sono ormai una parte fondamentale di molti processi che influiscono anche significativamente sulle nostre vite. La riflessione etico-filosofica su queste tematiche deve fare i conti con la velocità del progresso scientifico, in costante accelerazione. Tuttavia, in certi casi è importante recuperare alcuni vecchi concetti che ancora oggi possono essere di aiuto nella comprensione dei nuovi problemi posti dalle tecnologie di AI. In questo senso Shakir Mohamed e William Isaac di DeepMind, con Marie-Therese Png, dottoranda a Oxford, hanno pubblicato lo scorso luglio un saggio volto ad applicare alle questioni riguardanti l’AI un approccio basato sul concetto di decolonizzazione: “Decolonial AI: Decolonial Theory as Sociotechnical Foresight in Artificial Intelligence”. In sostanza,  decolonizzare l’AI.

Decolonizzare l’AI

Tutto è cominciato nel 2016 con un post che Mohamed ha pubblicato sul suo blog e che ha intitolato “Decolonising Artificial Intelligence”. Lo scienziato ha affermato che l’AI non è affatto globale come crediamo, ma è influenzata dai confini geografici e da retaggi coloniali. I valori della società in cui si sviluppa il pensiero scientifico finiscono inevitabilmente per influenzarlo; in questo modo, vengono incorporate nelle nuove tecnologie le differenze sociali ancora presenti e di cui spesso è possibile ricondurre l’origine al periodo delle colonizzazioni, quando si è affermata la visione euro-centrica. Diventa quindi necessario mettere in questione i valori considerati indiscutibili e provare vie alternative di pensiero per far sì che tutti i destinatari delle nuove tecnologie siano effettivamente considerati nella loro progettazione. L’approccio proposto è applicare il concetto di decolonizzazione alla riflessione sull’AI, cercando così di basare lo sviluppo scientifico su valori etici che incorporino anche le necessità e le possibilità di crescita dei popoli vulnerabili e storicamente marginalizzati. In questo modo si riuscirà a porre un freno anche ad alcune derive discriminatorie e oppressive che si sono osservate in questo campo negli ultimi anni.

Decolonizzare l’AI: algoritmi e discriminazione

I sistemi predittivi basati sugli algoritmi hanno dimostrato in più di un’occasione come l’oggettività di un calcolo matematico non porti necessariamente a decisioni neutrali. Le tecnologie di riconoscimento facciale spesso faticano a identificare le persone di colore, con errori che hanno portato anche a conseguenze tragiche nel momento in cui questi algoritmi sono stati utilizzati dalla polizia per giustificare degli arresti. In molti casi le AI hanno assimilato delle distorsioni presenti nella società, arrivando poi a rinforzarle con le loro decisioni: si pensi al software Compas negli USA, che viene usato in alcune corti per prevedere la probabilità di recidiva dei condannati e che secondo uno studio di ProPublica tende a sovrastimare la sua valutazione del caso dei neri e sottostimarla per i condannati bianchi. Sempre negli Stati Uniti, un altro caso di questo tipo è emerso con riguardo a un algoritmo utilizzato per selezionare i candidati per alcuni programmi sanitari, i cui risultati si sono rivelati discriminatori nei confronti delle persone di colore. Se la programmazione dell’algoritmo e la scelta del dataset si basano su valori discriminatori questi avranno inevitabilmente una ricaduta sulle decisioni dell’AI; ma anche solo l’adozione di un punto di vista parziale, retaggio di antichi meccanismi coloniali, può avere lo stesso tipo di conseguenze. Per questo motivo il discorso non può fermarsi alla situazione di discriminazione razziale negli Stati Uniti, ma deve assumere una dimensione globale.

I “ghost workers”, lavoratori invisibili

Un’altra manifestazione del colonialismo nel settore dell’AI è il fenomeno dei “ghost workers”, ovvero tutti quei lavoratori invisibili che supportano con la loro attività lo sviluppo degli algoritmi analizzando enormi quantità di dati. In molti casi le grandi compagnie sfruttano per questo tipo di attività i lavoratori di ex colonie come le Filippine, il Kenya e l’India, dove trovano forza lavoro più economica e sottoposta a leggi più permissive. Così si rafforzano disuguaglianze derivanti dal periodo coloniale, a tutto vantaggio dei Paesi più ricchi e a discapito di quelli più poveri.

Il beta testing

Il beta testing è il procedimento necessario per testare il funzionamento delle prime versioni dei software, per comprendere se ci siano problemi e osservarne il funzionamento in vari ambienti. Gli autori dello studio evidenziano come osservare questa pratica con le lenti dello storico possa, in certi casi, rivelare aspetti preoccupanti. Fanno l’esempio di Cambridge Analytica, che aveva testato il suo famigerato software nelle elezioni del 2015 in Nigeria e in quelle del 2017 in Kenya, con conseguenti interferenze sul processo elettorale e sulla coesione sociale in queste nazioni. Il vantaggio di effettuare il beta testing in questi Paesi era dato dalle loro leggi a protezione dei dati più deboli rispetto a quelle delle varie potenze occidentali. Si tratta di un vero e proprio caso di ethic dumping: l’esportazione di ricerche eticamente deprecabili nei contesti marginalizzati e vulnerabili dati dalle nazioni più povere, come faceva l’Impero britannico quando sperimentava nuove pratiche mediche e scientifiche nelle colonie, sfruttando il proprio potere sulle loro popolazioni. Gli autori sottolineano come un approccio basato sulla decolonizzazione dovrebbe portarci a chiederci come mai le violazioni di Cambridge Analytica siano venute alla luce solo dopo che hanno riguardato dei Paesi occidentali: questione che riguarda un problema di mentalità che è talmente interiorizzato nella nostra scala di valori da rimanere, nella maggior parte dei casi, nascosto.

La sovranità delle infrastrutture di AI

Le differenze di potere derivanti dal colonialismo hanno anche ricadute sulla formazione delle politiche e linee guida con riguardo all’utilizzo dei dati e degli algoritmi, nonché sui valori etici che vengono messi alla base di questi meccanismi. Diventa necessario chiedersi chi sia protetto dalle leggi e dagli standard e quali siano i rischi posti dal fatto che una minoranza stia ancora traendo beneficio dalla centralizzazione del potere e dai sistemi di sfruttamento. Una infrastruttura di AI fondata sulla visione della minoranza ricca in molti casi non tiene conto delle questioni che riguardano la maggioranza povera, che non ha accesso al dibattito su come progettare e migliorare le nuove tecnologie. Un esempio delle ricadute di questo problema: il fatto che alcuni Stati (tra cui India, Indonesia e Sud Africa) siano stati tenuti fuori dalle discussioni in materia ha portato al loro rifiuto di aderire agli accordi internazionali sullo scambio di dati dell’Osaka Track. La centralizzazione del potere sull’elaborazione delle AI non fa altro che aumentare le disuguaglianze, in un circolo vizioso che rischia di portare i Paesi più poveri a uno stato di dipendenza nei confronti di quelli che forniscono loro i software di cui hanno bisogno. Non solo, ma anche il modo in cui le AI vengono utilizzate nei Paesi in via di sviluppo già denota un atteggiamento paternalistico nei loro confronti da parte delle altre nazioni, favorendo in questo modo il formarsi di ingerenze esterne sullo sviluppo tecnologico e scientifico degli Stati più poveri.

Quali soluzioni per decolonizzare l’AI

WEBINAR
Come aumentare il ROI e ottenere forecast sempre più precisi? AI & Deep Learning per il finance
Finanza/Assicurazioni
Intelligenza Artificiale

Si è visto come vi sia un problema profondo di tipo etico e sociale, di scelta di valori e polarizzazione del punto di osservazione delle questioni scientifiche. Per questo motivo anche solo l’utilizzo di un diverso approccio, incentrato sull’idea di decolonizzare l’AI, assume un’importanza fondamentale nel progettare le nuove tecnologie in maniera più inclusiva. Gli autori evidenziano la necessità di questo tipo di ragionamento e propongono alcune tattiche per una AI “decolonizzata” (“Decolonial AI”). Innanzitutto, nel momento in cui viene programmata una AI bisogna tenere presente il contesto in cui questa verrà utilizzata: un algoritmo pensato per cittadini statunitensi molto probabilmente non funzionerà allo stesso modo in India. Serve una pratica tecnica critica dell’AI (“critical technical practice” nel saggio), che valuti l’equità dell’algoritmo (chi protegge, su che valori si basa), la sua sicurezza, la sua inclusività, con la possibilità di considerare l’AI e le politiche a essa relative come un mezzo per attuare la decolonizzazione della società. È necessario poi creare un meccanismo partecipativo in cui i gruppi marginalizzati vengono ascoltati e intervengono nel procedimento, decidendo come vengono posti i problemi di machine learning, quali tipi di dati vengono raccolti e come, dove vengono utilizzati i modelli finali; tutto nell’ottica di un processo di apprendimento reciproco, di scambio culturale in cui si abbatte il classico binarismo coloniale. Infine, l’approccio basato sulla decolonizzazione impone di passare dal paternalismo alla solidarietà, creando le possibilità per gli Stati ex coloniali di cominciare una propria riflessione e un lavoro autonomo sull’AI.

Conclusioni

Gli autori con il loro saggio vogliono porre l’attenzione sull’importanza delle teorie sulla decolonizzazione nell’affrontare i problemi posti dall’AI. Il fatto che ci si trovi in uno spazio digitale non significa che non ci siano gli stessi rischi di sfruttamento e accentramento delle risorse che si sono verificate nella storia nel rapporto tra i vari Paesi, ma anzi costringe a considerare anche le ricadute che la colonizzazione degli spazi fisici ha avuto sulla società e come questa influenzi gli spazi digitali. Costruire le nuove tecnologie basandosi su valori eticamente falsati da antiche reminiscenze colonialistiche porta all’aumentare delle diseguaglianze e delle ingiustizie sociali, costringendo i popoli più vulnerabili a nuovi tipi di subordinazione e dipendenza nei confronti dei pochi Paesi che controllano il progresso scientifico. Si tratta di problemi che molti stanno già scontando sulla propria pelle e che non possiamo permetterci di ignorare se vogliamo creare una AI che sia veramente di respiro globale.

 

 

 

FacebookTwitterLinkedIn