AI: servono nuovi approcci normativi per un utilizzo etico

Trattandosi di una tecnologia caratterizzata dall’innovazione continua ed essendo difficile prevedere quale ruolo ricoprirà in futuro nella nostra vita, diventa sempre più necessario regolamentarla per ovviare ai rischi che essa può comportare.

Pubblicato il 20 Gen 2022

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant//BCI Cyber Resilience Committee Member/CLUSIT Scientific Committee Member/BeDisruptive Training Center Director/ENIA - Comitato Scientifico

Intelligenza Artificiale Business

L’intelligenza artificiale (AI) sta diventando sempre più parte della routine della vita quotidiana. Il potenziale dell’AI, incorporata nelle attività della Pubblica Amministrazione, nelle operazioni delle forze dell’ordine e nella gestione della legge, come nelle fabbriche, può generare risparmi in termini di tempo e sforzi umani, migliorare l’efficienza operativa e ottimizzare i costi. Tuttavia, trattandosi di una tecnologia caratterizzata dall’innovazione continua ed essendo difficile prevedere quale ruolo ricoprirà in futuro nella nostra vita, diventa sempre più necessario regolamentarla per ovviare ai rischi che essa comporta. Serve quindi un nuovo approccio normativo, anche per un utilizzo etico.

Corpo normativo e AI: come strutturarlo

La necessità di strutturare sistemi socio-giuridici per la gestione dell’AI deriva dal fatto che quest’innovazione, se da un lato ci offre entusiasmanti sviluppi, dall’altro comporta vari gradi di rischio e incertezza. Basti pensare a quanto accaduto negli USA dove si sono verificati incidenti stradali con auto a guida autonoma e per i quali nessuna “persona” poteva essere legalmente ritenuta colpevole, oppure arresti illeciti o avvisi di debiti pubblici illegali scaturiti da elaborazioni basate sull’AI.

Ne consegue che, senza la possibilità di collegare un fatto alla volontà della persona che lo ha provocato, non può esservi responsabilità su tale persona; quindi, la mancanza di forza di volontà sui robot fa ricadere la responsabilità sia sul produttore sia sull’operatore come previsto dalla vigente normativa europea.

Interessante la proposta scaturita dal recente libro dal titolo “We, the Robots?” – scritto da Simon Chesterman, professore in Legge dell’Università di Singapore – in cui si suggerisce una categorizzazione “tricotomica” (un termine che appartiene alla logica filosofica, per cui un concetto viene diviso in tre parti) delle sfide dell’AI incentrate su: praticità, moralità e legittimità, da considerarsi come base per tre tipi di strategie di regolamentazione. Vediamo di che si tratta.

  • Praticità – È alla base dello sviluppo di tecnologie di intelligenza artificiale specifiche per compiti ad alta utilità, ma con compiti relativamente semplici, i.e. proteggere la sicurezza umana e aumentare l’efficienza, ad esempio le auto a guida autonoma.

Secondo il professor Chesterman sarebbe auspicabile e sufficiente adattare gli strumenti normativi esistenti, quali la legge sulla responsabilità per danno da prodotti difettosi e il regime assicurativo obbligatorio, evitando in questo modo di riprogettare l’intera base del diritto per accogliere le entità di AI.

  • Moralità – La regolamentazione dell’AI non comporta solo la gestione del rischio in generale, bensì anche quella dei cosiddetti “rischi morali” così complessi che presuppongono la definizione di quei “limiti” a cui l’AI dovrebbe attenersi, dato che la posta in gioco è così alta che una gestione generale del rischio non sarebbe sufficiente. Ne sono un esempio le armi letali autonome che pongono in gioco i diritti umani fondamentali e il concetto di dignità dato che, ad oggi, risulta difficile comprendere se le armi che si basano sull’AI possono rispettare perfettamente la normativa vigente in caso di guerra e, soprattutto, se è opportuno “esternalizzare” le decisioni di vita o di morte alle macchine. Secondo Chersteman urge avviare contromisure a livello internazionale che siano coordinate da un’istituzione globale in modo tale da tracciare le linee morali sull’utilizzo dell’AI in ambiti ad alto rischio.
  • Legittimità – Molte applicazioni di AI potrebbero evidenziare la presa in considerazione di abrogare la responsabilità alle macchine anche se i danni che tale decisione implica non sempre risultano chiari. Ne sono un esempio lampante gli strumenti algoritmici di valutazione del rischio utilizzati nelle decisioni di rating del credito: con l’apparenza di neutralità, obiettività e accuratezza, tali tecnologie possono rivendicare l’autorità semplicemente in virtù di strumenti statistici avanzati che ne definiscono i limiti, dal momento che le decisioni algoritmiche sono valide solo quando i loro dati di addestramento sottostanti risultano tali. Ovvero: se i dati di addestramento rispecchiano i pregiudizi sistemici del mondo reale, anche il risultato del sistema algoritmico sarà impattato da tali pregiudizi (i.e. concetto garbage-in, garbage-out che rimanda alla filosofia di Feuerbach secondo cui l’uomo è ciò che mangia e, in trasposizione ardita, l’AI è ciò che mangia).

Diventa sempre più importante valutare la legittimità del processo e, nei contesti in cui vi sono interessi pubblici, la legittimità del processo decisionale “consiste nel processo stesso”, in cui un essere umano “capace” può svolgere l’esercizio della propria discrezionalità ed essere ritenuto responsabile. Pertanto, le normative dovranno garantire la trasparenza dei processi e il controllo umano – così come proposto da Chesterman nella sua “tricotomia” – poiché solo in questo modo è possibile evidenziare il valore del ragionamento, della discrezionalità e della deliberazione.

Inoltre, considerando che il processo decisionale umano è spesso fallibile tanto quanto quello dell’intelligenza artificiale, Chesterman ritiene che vi sia qualcosa di fondamentalmente diverso nel ragionamento umano rispetto all’AI, anche nel caso in cui si è in grado di apprendere in profondità e di elaborare informazioni complesse. Ovvero: dato che uno strumento algoritmico di valutazione del rischio scaturisce da modelli di decisioni umane pregresse e dai loro risultati per determinare decisioni future, un giudice umano non solo è in grado di esaminare le informazioni passate, ma esercita anche la propria discrezionalità soppesando valori incerti in un ambiente sociale complesso. Pertanto, come afferma il professore, fare affidamento sull’AI riduce il ragionamento legale a una specie di “cronaca/storia” invece che ad un “progetto sociale lungimirante”. Quindi i modelli statistici avanzati sono da considerare come potenti strumenti informativi che ci consentono di prendere decisioni migliori, ma solo se comprendiamo veramente gli strumenti che utilizziamo.

Il ruolo della politica sociale

A fronte di quanto sopra descritto, sembrerebbe mancare una componente di politica sociale di cui l’istruzione pubblica è parte integrante. Si tratta di considerare le normative come strumento per proteggere i cittadini e la società dall’AI ma, al contempo, esse possono essere il punto di partenza per prepararsi ad affrontare le sfide dell’AI. Di fatto, la tecnologia basata sull’AI diventa sempre più sofisticata e permea un numero crescente di sfere della nostra vita. Inoltre, un utente se ben “informato” può comprendere l’output di un sistema di AI non come una decisione, bensì come informazione da utilizzare, interrogare e strumentalizzare nel proprio processo decisionale. Ciò comporta un atteggiamento critico nei confronti dell’AI e una comprensione di come essa è progettata e addestrata. Inoltre, è necessario comprendere se può fallire nel proprio intento o se alimentata da pregiudizi. Pertanto, è quanto mai urgente poter disporre di un numero sempre maggiore di “utenti informati”, soprattutto considerando il fatto che i vari ruoli “tradizionali” sono sempre più “assistiti” dall’AI o sono parzialmente automatizzati.

In conclusione, dobbiamo aumentare la soglia di base dell’alfabetizzazione tecnica e dell’istruzione in modo tale che gli utenti “medi”, in futuro, possano interagire con coscienza con l’AI, mediante le necessarie conoscenze e le abilità sostenute e promosse dalla politica e dalle normative. Solo in questo modo i governi potranno salvaguardare gli interessi pubblici e mantenere la legittimità nell’era dell’AI, prevedendo norme e valori generali che vengano tradotti in requisiti di progettazione e costruendo letteralmente i valori su cui basare la fase di programmazione della macchina.

Ai regolamento

L’impiego dell’AI nelle armi: implicazioni morali

Le armi letali automatizzate devono garantire una tipologia di decisioni automatizzate, con diversi requisiti etici e legali che si applicano a ciascuna categoria della tipologia di armi. Una tematica scottante al centro del dibattito della Comunità Europea – dopo oltre un anno di interruzioni legate al COVID-19 – per chiarire ulteriormente come si applica il diritto internazionale umanitario (DIU) allo sviluppo e all’uso degli Autonomous-Weapon-Systems (AWS) e, soprattutto, come gli esseri umani e le macchine possono interagire in merito a decisioni di forza nei conflitti armati.

Gli AWS si differenziano dalle altre armi per la loro capacità: dopo essere attivati sono in grado di selezionare e ingaggiare bersagli senza intervento umano. Sebbene questa capacità possa presentare benefici operativi e umanitari, implica preoccupazioni giuridiche, etiche e strategiche fondamentali. I progressi nell’autonomia degli AWS hanno portato la comunità internazionale a disquisire sul ruolo degli esseri umani nell’uso della forza e in che misura le decisioni di vita e di morte possano essere “delegate” alle macchine. Inevitabilmente si fa riferimento al vigente Diritto Internazionale Umanitario (DIU), anche se, di fatto, esso non fornisce una guida sufficientemente chiara su ciò che è richiesto agli esseri umani (e consentito dalla tecnologia) nell’uso della forza. Pertanto, risulta quanto mai urgente affrontare chi dovrebbe fare cosa, quando e dove nello sviluppo e nell’uso di AWS in modo tale da chiarire quale tipo e grado di interazione uomo-macchina può essere giustificato per la conformità al DIU in una determinata situazione.

Discussioni strutturate e più approfondite aiuteranno gli Stati a identificare quali tipi di AWS dovrebbero essere vietati e quali altri dovrebbero essere regolamentati. Inoltre, la Comunità Europea dovrà approfondire cosa significa garantire il rispetto del DIU e quale sia il ruolo umano nell’uso della forza anche al di là del caso di AWS.

L’impiego dell’AI: divario tra nazioni ricche e povere

Le tecnologie che si basano sull’AI stanno rivoluzionando i processi di produzione e inevitabilmente impatteranno pesantemente sulle economie in via di sviluppo, come si evince da uno studio dell’International Monetary Fund (IMF) pubblicato nel settembre 2020. Le nuove tecnologie rischiano di ampliare il divario tra paesi ricchi e poveri destinando maggiori investimenti verso economie avanzate in cui l’automazione è già consolidata. Per prevenire questa crescente divergenza, i responsabili politici dei Paesi in via di sviluppo – a fronte del ritmo veloce della rivoluzione dei robot – dovranno investire per aumentare la produttività aggregata e i livelli di competenze più urgentemente che mai, in modo tale che la loro forza lavoro sia integrata piuttosto che sostituita dai robot. Pertanto, anche le economie meno avanzate dovranno attuare un’innovazione armonica che permetta di porre al centro le risorse umane debitamente dotate di skill e formazione adeguata e convivere sinergicamente con la tecnologia, anche se si tratta di traguardi ambiziosi, considerando l’economia povera di questi Paesi.

Conclusioni

La centralità dell’uomo dovrebbe essere l’obiettivo di tutte le tecnologie basate sull’AI. Un obiettivo che va affrontato a livello sia di normative nazionali e internazionali sia di politiche sociali e industriali.

Sappiamo che l’AI, se utilizzata correttamente, si converte in leva strategica e preziosa; tuttavia, sarà sempre necessario l’occhio vigile umano in grado di garantire il corretto impiego e monitorare i rischi associati, derivanti da: pregiudizio algoritmico, sovrastima delle capacità dell’AI, errori di programmazione, rischio di attacchi informatici, rischi normativi e reputazionali.

Inoltre, l’intelligenza umana dovrà continuare a esercitare le proprie facoltà soprattutto quando si tratta di contesti altamente critici e che comportano prese di decisione repentine e complesse, atte a garantire la sopravvivenza dell’organizzazione o la salvaguardia dei diritti e della salute dei cittadini. Questo tipo di decisioni richiedono un calibrato mix di QI e intelligenza emotiva, qualcosa che l’AI non ha finora raggiunto. Di fatto, mentre noi umani facciamo uso della conoscenza implicita ed esplicita, l’AI usa solo la conoscenza esplicita, quindi, la scienza è ancora lontana dal replicare la capacità cognitiva vera e propria.

L’AI non è destinata a sostituire in toto i vari attori della nostra società, il che implica un’AI umano-centrica che, grazie a quadri normativi più strutturati, chiari ed efficienti sia in grado di gestire i risvolti etici e giuridici, e garantire la salute e i diritti di ognuno di noi. Pertanto, l’AI dovrà diventare necessariamente “trustworthy”; i prodotti e i servizi dovranno essere basati su dati sicuri; le basi di dati su cui saranno addestrati gli algoritmi dovranno essere prive di bias e il loro funzionamento non più opaco, bensì trasparente e spiegabile. Si tratta, quindi, di perseguire uno sviluppo tecnologico intelligente “umanocentrico”, a misura di democrazia e diritti individuali e sociali.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2