Algorithmic decision making, come regolamentare le decisioni prese dall’AI

Si prospetta all’orizzonte l’avvento di una vera e propria “società automatizzata”, come modello generalizzato di organizzazione collettiva fondato sul primato “opaco” di “algorithmic decision making” in grado di determinare il riconoscimento di un nuovo “status quo di sorveglianza di massa pervasiva” che sancisce l’affermazione di un pericoloso “lato oscuro” della tecnologia

Pubblicato il 02 Dic 2020

Angelo Alù

PhD, Consigliere Internet Society Italia, saggista e divulgatore digitale

AI nel settore bancario

L’ultima edizione del report “Automating Society 2020” descrive lo scenario esistente in materia di ADM (Algorithmic decision making), delineando le prospettive future che, soprattutto in termini di criticità e aspetti problematici, caratterizzeranno nei prossimi anni lo sviluppo evolutivo dei sistemi decisionali automatizzati. In primo luogo, il documento fornisce una panoramica generale sullo stato dell’arte della regolamentazione vigente in materia. Ad esempio, le coordinate tracciate dal documento “A Union that strives for more – My agenda for Europe (Political Guidelines for the next European Commission 2019-2024)”, formalizzano, come visione politica espressa dalla Presidente della Commissione EU Ursula von der Leyen, la priorità strategica di “cogliere le opportunità del digitale” nel rispetto di standard sicuri ed etici, con particolare riferimento ai sistemi di Intelligenza Artificiale, destinata a trasformare la società nel suo complesso.

La risoluzione del Parlamento UE e il Libro Bianco della Commissione Europea

Prendendo atto della crescente diffusione di dispositivi e sensori in grado di raccogliere un’enorme quantità di dati processati da algoritmi sempre più sofisticati che richiedono l’adozione di misure a tutela della privacy e della sicurezza al punto da rendere necessario un approccio europeo coordinato sulle implicazioni etiche dell’AI per stabilire regole adeguate in materia, la Commissione per il mercato interno e la protezione dei consumatori del Parlamento UE, nel gennaio 2020, ha approvato una risoluzione che affronta le diverse sfide derivanti dal rapido sviluppo delle tecnologie di intelligenza artificiale e del processo decisionale automatizzato, auspicando un intervento regolatorio dell’Unione europea in grado di garantire un uso equo e sicuro dell’Intelligenza Artificiale a tutela dei consumatori, con conseguente necessità di aggiornare le normative vigenti in materia di sicurezza e responsabilità alle luce delle nuove esigenze poste dall’avvento dell’IA, mediante l’utilizzo di algoritmi trasparenti e imparziali che consentano di assicurare il controllo finale delle operazioni decisionali da parte dell’uomo, predisponendo altresì strumenti di revisione tecnica per rimediare a possibili errori nelle decisioni automatizzate.

Il 19 febbraio 2020 la Commissione europea ha pubblicato il Libro bianco dal titolo “On Artificial Intelligence – A European approach to excellence and trust”.

In particolare, pur riconoscendo che i sistemi di AI possano generare rilevanti benefici in svariati settori contribuendo al miglioramento degli standard economici e sociali esistenti, la Commissione europea al contempo sottolinea una serie di potenziali rischi a pregiudizio della protezione dei dati personali con possibili effetti discriminatori a causa di un processo decisionale opaco utilizzabile anche per fini criminali.

algorithmics decision making

Per tale ragione, la Commissione si impegna a definire strategie politiche conformi agli orientamenti espressi dalla presidente Ursula von der Leyen per predisporre un quadro normativo uniforme e omogeneo in materia, sollecitando il coinvolgimento delle altre istituzioni europee, degli Stati membri e di tutte le parti interessate, compreso il settore privato e la società civile, al fine di contribuire in modo sinergico allo sviluppo equo e sostenibile del settore, in modo da fornire ai cittadini servizi pubblici più efficienti, produrre nuovi beni di alta qualità tecnologica, promuovere nuove opportunità di business con adeguate garanzie a salvaguardia dei diritti delle persone.

La raccomandazione CM/Rec (2020) del Comitato dei Ministri del Consiglio d’Europa

Sul tema, si segnala inoltre la Raccomandazione CM/Rec (2020) “on the human rights impacts of algorithmic systems” adottata dal Comitato dei Ministri del Consiglio d’Europa nel mese di aprile 2020, con l’intento di elaborare linee guida per assicurare che lo sviluppo di sistemi algoritmici avvenga nel rispetto dei diritti umani “al fine di amplificare gli effetti positivi e prevenire o ridurre al minimo i possibili effetti negativi”, a fronte delle significative potenzialità delle tecnologie per il benessere socio-economico della collettività, prendendo però atto “dell’impatto, che può essere positivo o negativo, che l’applicazione di sistemi algoritmici con capacità di raccolta dati automatizzata, analisi, processo decisionale, ottimizzazione o apprendimento automatico ha sull’esercizio, godimento e protezione di tutti i diritti umani e libertà fondamentali, e delle sfide significative, anche per le società democratiche e lo Stato di diritto, legate al crescente affidamento a sistemi algoritmici nella vita quotidiana”.

Da ciò discende le necessità di elaborare principi etici e giuridici appropriati per prevenire la sussistenza di violazioni massive in danno delle persone a causa di sofisticati sistemi algoritmi, qualificati come “applicazioni che […] eseguono una o più attività quali raccolta, combinazione, pulizia, ordinamento, classificazione e inferenza di dati, nonché selezione, definizione delle priorità, formulazione di raccomandazioni e processo decisionale […] per migliorare le prestazioni dei servizi (in particolare attraverso una maggiore precisione, targeting e coerenza)”, con il rischio di determinare inedite minacce per la protezione dei dati personali e per il diritto alla libertà di espressione a causa del tracciamento digitale su larga scala che tali sistemi sono in grado di determinare, con un crescente pericolo “di manipolazione altamente personalizzata”, che “può avere un grave effetto negativo sull’esercizio dei diritti umani”.

In tale prospettiva, il Consiglio d’Europa evidenzia, come raccomandazioni da osservare per la regolamentazione del settore, l’elaborazione di un quadro normativo “trasparente, responsabile e inclusivo”, costituente il risultato di un “processo di elaborazione, attuazione e valutazione delle politiche, della legislazione o dei regolamenti applicabili alla progettazione, allo sviluppo e all’implementazione continua di sistemi algoritmici”, mediante una costante revisione legislativa “durante l’intero ciclo di vita di un sistema algoritmico, dalla fase di proposta fino alla valutazione degli effetti” […] a causa della velocità e della portata con cui funzionano questi sistemi e dell’ambiente tecnologico in rapida evoluzione in cui operano”, anche nell’ambito di procedure partecipative di consultazione aperta per sensibilizzare la consapevolezza dell’opinione pubblica sugli impatti complessi dei sistemi algoritmi.

Le criticità e il ritardo legislativo

In realtà, tale approccio sembra non essere in grado di assicurare un’adeguata regolamentazione del settore, anche a causa di una mera enunciazione di principi generali non vincolanti, formulati allo stato attuale in termini di raccomandazioni e linee guida, senza alcuna cogenza giuridica, con il rischio di determinare un ulteriore “gap” tra il ritardo legislativo già riscontrato e destinato ad incrementare ulteriormente il deficit regolatorio esistente e il crescente ritmo evolutivo delle tecnologie, la cui costante espansione ad una smisurata velocità di implementazione rende l’innovazione sempre più distante dalle attuali prospettive di inquadramento delineate a livello normativo, in cui peraltro sembra formalizzarsi, secondo quanto indicato dal report “Automating Society 2020”, una visione eccessivamente ottimistica sulle dinamiche dello sviluppo digitale, poiché “i rischi associati alle tecnologie basate sull’intelligenza artificiale sono più generalmente etichettati come potenziali, mentre i benefici sono descritti come molto reali e immediati, con l’effetto di determinare una “preoccupante inversione delle priorità dell’UE, anteponendo la competitività globale alla protezione dei diritti fondamentali”.

Mentre quindi il diritto si trova ancora in una fase embrionale di ridefinizione teorica delle prospettive di adeguamento del quadro normativo vigente alla ricerca di nuovi efficaci principi applicabili in materia, nel frattempo è in corso senza sosta la costante implementazione tecnica di svariati progetti di intelligenza artificiale utilizzati, ad esempio, per controlli automatizzati di sicurezza anche integrati da strumenti di riconoscimento facciale oggetto di ulteriore sperimentazione per incrementare la potenza algoritmica di tecnologie biometriche e di rilevamento delle identità per finalità di sorveglianza delle frontiere al fine di contrastare la migrazione irregolare mediante metodi di analisi automatizzata dei dati processati.

L’avvento di una società automatizzata “algorithmic decision making”

Si prospetta, quindi, all’orizzonte l’avvento preoccupante di una vera e propria “società automatizzata”, come modello generalizzato di organizzazione collettiva fondato sul primato “opaco” del “algorithmic decision making” in grado di determinare il riconoscimento di un nuovo “status quo di sorveglianza di massa pervasiva” che sancisce l’affermazione di un pericoloso “lato oscuro” della tecnologia, le cui dinamiche evolutive sembrano sempre più orientate a soddisfare esigenze di natura commerciale legate alla crescita economica di nuove opportunità di business e poco sensibili alla salvaguardia dei diritti fondamentali delle persone esposte al rischio di costanti forme di controllo poco conformi alle prerogative democratiche di un moderno Stato di diritto piegato alle logiche del cd. “soluzionismo tecnologico” come approccio ideologico dominante per giustificare la progressiva diffusione “acritica” di tecnologie automatizzate in una crescente quantità di attività quotidiane svolte nel settore pubblico e privato, come in tal senso evidenzia il report “Automating Society 2020”.

Al riguardo, lo studio raccomanda il necessario incremento del livello di trasparenza dei sistemi ADM, funzionale a conoscere le modalità di implementazione tecnica dei relativi sistemi, con l’obbligo di istituire registri di consultazione dei sistemi ADM utilizzati nel settore pubblico, in cui fornire informazioni dettagliate nel rispetto di un protocollo standardizzato per l’accesso ai relativi dati.

Si ritiene inoltre necessaria una revisione organica del quadro normativo vigente che, vietando in generale l’uso di sistemi di riconoscimento facciale come strumenti di sorveglianza di massa, formalizzi nuovi adeguati principi applicabili in materia ADM secondo un approccio “multi-stakeholder”, in grado di assicurare il prioritario coinvolgimento dei rappresentanti della società civile come “guardiani della società automatizzata”, stimolando altresì la diffusione di programmi di “alfabetizzazione algoritmica” per incrementare il livello basico di competenze e stimolare il dibattito pubblico inclusivo e consapevole sugli impatti dei sistemi ADM in modo da creare un clima di fiducia, trasparenza e cooperazione collaborativa tra tutti gli attori coinvolti nel nuovo ecosistema digitale destinato ad affermarsi nell’immediato futuro.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3