AI: tra complessità e bias si fanno strada i concetti di algoretica e algostetica

Studiare la complessità in termini di continuous improvement e progettare nuovi strumenti di lettura, verifica e controllo degli algoritmi in conformità di principi etici ed estetici [...]
Fiorello Casi

Researcher and University Scholarship Ethics of New Technologies

Bias
  1. Home
  2. Intelligenza Artificiale
  3. AI: tra complessità e bias si fanno strada i concetti di algoretica e algostetica

Pregiudizi, ovvero bias. Cognitivi prima ancora che informatici. A volte sembra davvero che i nostri sensi ci ingannino, amplificati come sono da strumenti analitici sempre più sofisticati, quali l’intelligenza artificiale, da cui ricaviamo messaggi molto spesso anche confusi, indicatori sempre più complessi e con una certa frequenza contradditori. Per quanto riguarda l’utilizzo sostanzialmente pervasivo dell’intelligenza artificiale, compresi i suoi affluenti (la sensoristica di Internet delle cose, gli strumenti di creazione e gestione dei big data, gli sviluppi sempre più sofisticati degli apparati di connessione della Rete) le minacce maggiori ai sostanziali effetti benefici che tutto ciò fornisce alla nostra vita sociale, alle comunicazioni, alla scienza e alla tecnica, si raggruppano intorno a due poli tematici ormai ben delineati: la complessità e i pregiudizi (o bias informatici). Risposte a questi problemi possono venire dall’algoretica e dall’algoestetica, nuovi concetti che si contrappongono all’algocrazia, il potere degli algoritmi.

Da realtà e complessità fino all’AI e ai big data

Infatti, il rapporto tra realtà e complessità è la storia di un lungo percorso epistemologico compiuto dall’uomo per giungere all’AI e ai big data. E di come questi ultimi, per ora, siano l’ultima tappa di questo processo volto alla comprensione e interpretazione del reale.

Infatti, il concetto di realtà, da sempre, ha posto e pone problemi nodali, sia alla scienza, sia alla filosofia, soprattutto a quest’ultima, riguardo l’indagine sull’essere.

La comprensione della realtà nell’ambito di un mondo formato da infiniti fenomeni, sin dalle origini, è stata una sfida alla comprensione della complessità. Il tentativo di cogliere il concetto di realtà è un’attività umana millenaria che continua immutata sino a noi. Le strade intraprese nel corso dei secoli sono state, sia diverse, sia diversificate ma tutte miravano a coglierne il funzionamento, cercando risposte adeguate a domande circa le attività pratiche e astratte che fatalmente sorgono nel nostro “essere nel mondo”.

Lo stato dello sviluppo scientifico e tecnologico di questo periodo comincia a inglobare degli aspetti importanti, fattori chiave per l’economia del nostro discorso; l’importanza che una visione sistemica assume nello studio dei fenomeni; la disponibilità di importanti risorse computazionali mai avute prima di allora; e, come si vedrà più avanti, la comparsa del concetto di rete, che raggiungerà il suo completo dispiegamento in tempi recenti, con i grandi consorzi di ricerca e la Big Science.

Altri passi giganteschi sono stati compiuti, dalla metà del secolo scorso a oggi nel campo scientifico, e tutti hanno avuto a che fare con sistemi con un alto grado di complessità e il loro trattamento. Si è giunti alla conclusione che tali sistemi non possono essere inseriti in un quadro teorico introducendo semplicemente la probabilità come fattore che stabilisca una relazione tra i fenomeni microscopici e il comportamento macroscopico; infatti, come già Heisenberg e Schrodinger avevano dimostrato, è l’impossibilità di compiere esperimenti ripetibili che mette lo studioso della complessità nelle stesse condizioni degli astrofisici che studiano le origini dell’universo; il big bang non può essere ripetuto in laboratorio ed è quindi necessario dotarsi di strumenti diversi per comprendere i fenomeni nel mentre del fluire delle cose. E da questo continuo fluire possono emergere i “pattern” e i comportamenti che, se isolati e individuati, consentono tramite l’analisi dei dati, di trasformarsi in una nuova conoscenza.

Anche se sospettiamo che la totalità dei fenomeni che costituiscono la realtà non saranno mai completamente afferrabili, con questo sistema è certamente possibile prendere decisioni o trovare soluzioni con una dotazione di informazioni più adeguata all’entità dei problemi che dovremmo affrontare e di avviare procedure operative in grado di raggiungere, con maggiore possibilità di successo, gli obiettivi legati alla ricerca e alla soluzione dei problemi. A questo riguardo la disponibilità di dati in forma digitale, come si è già visto, cresce in modo esponenziale. Da un lato si indirizza verso l’ambiente esterno all’individuo; registrando mutamenti e variazioni, dal clima, al microclima, numero di nati, di morti, di matrimoni, divorzi, di promossi e bocciati. Dall’altro acquisendo dati sui comportamenti umani (registrando le nostre tracce digitali), mediate dagli apparati tecnologici, le telefonate, le email, la navigazione in Rete, gli acquisti e molto altro.

digital event, 20 ottobre
Think Digital Summit: strategie, tecnologie, trend e innovazione per competere sul mercato
Big Data
Intelligenza Artificiale

bias

Il problema dei bias algoritmici

In gioco ci sono le modalità con le quali affronteremo il prossimo futuro; infatti, la spinta alla datizzazione del mondo sta generando un mondo parallelo digitale nel quale il ruolo della fisica potrebbe venire assunto da una futuribile scienza dei dati, con nuovi e diversi strumenti e paradigmi per la loro gestione. Con o senza buona pace dei “bias algoritmici”?

Non proprio; quello dei pregiudizi (bias) algoritmici è un grave e gravoso problema che ostacolerà in modo importante la faticosa marcia della scienza durante la sua scalata alla comprensione e gestione della complessità.

Questo percorso di svelamento della centralità dei bias nel processo è iniziato con la comprensione dei bias nei nostri comportamenti sociali e quanto ciò significhi comprendere parte dei meccanismi dei bias algoritmici; come quelli sociali, essi si introducono e poi si propagano nelle simulazioni digitali che produciamo e nelle tecnologie che utilizziamo. Tutti sviluppiamo bias cognitivi fin dall’infanzia; molti di essi provengono dalla nostra cultura e dall’ambiente nel quale viviamo, altri si formano nel corso delle nostre esperienze. Gioco forza che i bias algoritmici derivano da questi bias cognitivi. Li ritroviamo negli algoritmi e nei modelli, ma anche nei dati utilizzati per calibrare (e addestrare) gli algoritmi, nel caso dell’apprendimento automatico (machine learning).

Comprendere il passaggio dai nostri bias a quelli algoritmici è essenziale per guardare in maniera critica alle tecnologie che oggi ci circondano. La nostra responsabilità, quando assistiamo alla progettazione di nuovi algoritmi (o della messa a punto di già realizzati), risiede nel valutare le possibili origini di bias ed esercitare il pensiero critico durante tutte le fasi di sviluppo del modello, dalla realizzazione del calcolo numerico all’analisi dei risultati e alle conclusioni che ne vengono tratte. È una messa in discussione che non finisce mai. Ma è essenziale, pena lo sviluppo di algoritmi falsati, la mancata condivisione dei temi trattati e dei risultati, il rifiuto delle forme di presentazione e documentazione degli algoritmi.

A questo riguardo abbiamo seguito un percorso suggestivo, ma sul quale molto deve essere ancora fatto. Si tratta dei concetti di algoretica e algostetica.

Algoretica, cos’è

Algortetica, termine la cui prima attestazione risale al 2018: “Le implicazioni sociali ed etiche dell’AI e degli algoritmi rendono necessaria tanto un algor-etica quanto una governance di queste invisibili strutture che regolano sempre più il nostro mondo per evitare forme disumane di quella che potremmo definire una algocrazia“, (Paolo Benanti, Oracoli. Tra algoretica e algocrazia, Roma, Luca Sossella editore, 2018).

Paolo Benanti è un frate francescano del Terzo Ordine Regolare e docente di Teologia morale e Bioetica alla Pontificia Università Gregoriana. L’algoretica, secondo Benanti, nasce in risposta a quella che viene chiamata algocrazia, letteralmente ‘dominio degli algoritmi’, una società basata sulla massiccia applicazione degli algoritmi: si rende infatti necessario uno studio dei problemi etici e dei risvolti sociali (ma anche politici, economici e organizzativi) che derivano dall’uso sempre maggiore delle tecnologie informatiche.

In sostanza, nel contesto tecnologico attuale, abbiamo bisogno di poter indicare i valori etici attraverso i valori numerici che nutrono l’algoritmo. L’etica ha bisogno di contaminare l’informatica. È necessario sviluppare un’algoretica, ovvero di un modo che renda computabili le valutazioni di bene e di male. Solo in questo modo potremo creare macchine che possono farsi strumenti di umanizzazione del mondo. Dobbiamo codificare principi e norme etiche in un linguaggio comprensibile e utilizzabile dalle macchine

Algostetica, cos’è

Il termine algostetica potrebbe essere utilizzato per rendere l’analogia con l’algoretica, ma in questo caso, per quanto riguarda la parte estetica. La parte algo-estetica riguarda le modalità e gli strumenti con cui il discorso intorno agli algoritmi si genera e si sviluppa. Particolarmente centrale è lo sviluppo di nuovi strumenti di documentazione e presentazione di tutte le attività realizzative e che non si pone come una mera sovrapposizione o ampliamento bizantino di prodotti di project management storici e specifici per le discipline ICT e tantomeno uno strumento di mero carattere divulgativo, necessario all’informazione del grande pubblico sugli aspetti salienti di nuove applicazioni informatiche.

Parliamo di un’area altra rispetto alle due precedenti, che con strumenti nuovi consenta una documentazione degli algoritmi tramite la condivisione degli aspetti topici e caratterizzanti, contenente i criteri per una condivisione trasparente degli obiettivi, degli scopi, delle regole di valutazione e sulla qualità e quantità dei dati coinvolti (ad esempio: la scrittura congiunta e documentata tra utenti e fornitori del nuovo computo della bolletta del gas con tutti i parametri e i dati condivisi, l’algoritmo di calcolo disponibile a tutti in forma leggibile e trasparente e condivisa e la qualità e quantità dei dati da processare). I campi di applicazione sarebbero (saranno) infiniti; dalla medicina, alla farmacia, alla finanza e anche processi di tipo politico. La scrittura e condivisione, tramite strumenti nuovi di algostetica, delle strutture algoritmiche di governo della complessità sociale, saranno una delle attività principali del prossimo futuro.

Conclusioni

Il futuro è aperto ma la necessità di aprire una parentesi, una zona di studio inedita, che porti al centro di un’area di studio l’evoluzione (in termini di continuous improvement) del concetto di complessità, unito alla vigilanza sistematica e continua delle sub culture informatiche e le modalità di generazione dei loro bias, sia culturali, sia informatici; e la progettazione di strumenti di lettura, verifica e controllo degli algoritmi progettati e prodotti, in conformità di principi etici in linea con la reale evoluzione dei tempi.

WHITEPAPER
Cloud, omnicanalità e intelligenza artificiale: porta il tuo Contact Center nel futuro
Digital Transformation
Intelligenza Artificiale

 

FacebookTwitterLinkedIn