AI, dall’Ue più tutele per i cittadini e i consumatori europei

I consumatori che si trovano a interagire con un sistema a processo decisionale automatizzato dovrebbero essere “informati su come funziona, su come raggiungere un essere umano con poteri decisionali e su come le decisioni del sistema possono essere controllate e corrette”

Pubblicato il 27 Mar 2020

ue parlamento

L’Europa adotta per i propri cittadini maggiori e migliori tutele nel campo della intelligenza artificiale. Il Parlamento europeo ha approvato una risoluzione della Commissione del Mercato interno, adottata il 23 gennaio 2020, con la quale richiede di offrire più efficaci tutele ai consumatori, aggiornare la normativa sulla sicurezza e “responsabilità della UE” per quei prodotti che utilizzano o, in ogni caso, riconducibili a forme di AI, di utilizzare algoritmi e strutture di controllo imparziali e di trovare meccanismi e metodologie idonee a salvaguardare la funzione di gestione-controllo da parte degli uomini degli strumenti di AI e dei sistemi decisionali automatizzati: in poche parole tutte le sfide più urgenti provenienti dal rapido sviluppo delle tecnologie di AI e di processo decisionale automatizzato (ADM).

Per il Parlamento europeo, infatti, quando i consumatori si trovano a interagire con un sistema ADM dovrebbero essere “informati su come funziona, su come raggiungere un essere umano con poteri decisionali e su come le decisioni del sistema possono essere controllate e corrette”.

Senza contare che i sistemi di ADM dovrebbero utilizzare solo “set di dati imparziali e di alta qualità e algoritmi spiegabili e imparziali al fine di rafforzare la fiducia e l’accettazione dei consumatori” si legge nel testo della risoluzione.

Inoltre, dovrebbe essere istituita una “struttura di revisione” per porre rimedio a possibili errori nelle decisioni automatizzate e per i consumatori dovrebbe essere reso possibile chiedere la revisione umana e in caso di ricorso a decisioni automatizzate che siano definitive e permanenti: questi gli strumenti messi in campo dal Parlamento europeo per aumentare l’efficienza e l’efficacia degli strumenti di AI e arginarne i possibili rischi.

L’intelligenza artificiale è, attualmente, in condizioni di poter incidere e modificare non solo la realtà circostante, le condizioni di vita nelle nostre società, ma, anche, le nostre decisioni. L’obiettivo che ci dovremmo prefiggere sarebbe quello di sfruttarne al massimo le potenzialità limitando il più possibile i pericoli.

Quali sono i principali rischi dell’intelligenza artificiale

Numerosi sono i rischi a cui ci espone un uso incauto dell’AI. Stando a una casistica stilata non troppo tempo fa dal Massachusetts Institute of Technology (MIT), si va dagli incidenti delle auto a guida autonoma, ai “deep fake” – video falsi realizzati per mezzo degli strumenti dell’intelligenza artificiale, ma talmente perfetti da sembrare veri in tutto e per tutto -, per arrivare alle influenze nelle elezioni politiche e nel voto elettorale. Evenienza quest’ultima, che viene messa in atto, in genere, attraverso i “bot”, algoritmi, cioè, addestrati a influenzare e interferire con il condizionamento delle opinioni pubbliche per mezzo di un uso distorto dei social più diffusi attraverso le, cosiddette, “tecnologie della disinformazione” come vediamo che avviene spesso e volentieri negli Stati Uniti.

O, ancora, la potenziale pericolosità dei sistemi di riconoscimento facciale, di cui sono già a conoscenza numerose polizie, che potrebbe portare non solo a violazioni della privacy, ma al compimento di veri e propri reati.

Così come non possiamo dimenticare i problemi creati nei sistemi sanitari da un utilizzo improprio dell’AI o da sistemi tecnologici che vanno in tilt, o le discriminazioni di razza e genere intrinseche negli algoritmi, cosa che è emersa da vari studi scientifici e che potrebbe determinare dei problemi se lo strumento dell’AI dovesse essere usato nella gestione organizzativa del personale, nel management, nella selezione del personale.

L’AI e l’esigenza di conciliare etica e tecnologia

Queste sono alcune delle motivazioni che giustificano le azioni che già da qualche anno da più parti si stanno ponendo in essere per creare un sistema di gestione controllo etico-giuridico-tecnologico dei sistemi di intelligenza artificiale in modo da controllarne i pericoli e sfruttare al massimo le potenzialità. Parliamo delle istituzioni europee – Commissione, Parlamento, Consiglio, – del governo degli Stati nazionali – tra cui la stessa Presidenza del Consiglio italiana e le varie agenzie create allo scopo –, dei differenti organismi istituzionali internazionali che per quanto di competenza sono al lavoro con varie task force e gruppi di lavoro, degli istituti scientifici nazionali e internazionali – CNR e MIT, solo per fare alcuni esempi.

L’obiettivo ultimo sarebbe di conciliare, armonizzandole, etica e tecnologia.

Già qualche anno fa l’Unione Europea ha redatto e pubblicato un “Codice Etico”, delle Linee Guida Etiche, frutto della collaborazione di numerosi esperti del settore, e del relativo “Gruppo di esperti di alto livello sull’intelligenza artificiale”, voluto dalla Commissione, con il quale è stata focalizzata l’attenzione, soprattutto sulla “tutela dell’incolumità dell’uomo”: tutela, salvaguardia e garanzia dei diritti degli uomini, nel momento in cui interagiscono con le forme di AI o, comunque, di applicazioni tecnologiche, rispetto dei diritti fondamentali, quale regolamentazione e meglio utilizzare, cercare dei “principi fondamentali” che traccino la strada affinché la tecnologia possa essere resa realmente affidabile oltre che, tecnicamente solida.

Per arrivare alla definizione e attuazione di una vera e propria Strategia nazionale per l’AI a opera del CNR, che su indicazione del MIUR è stato incaricato di coinvolgere le componenti più significative del mondo della ricerca scientifica italiana attente a questi argomenti, per “mettere a sistema” tutte le eccellenze scientifiche nazionali, strutturando, anche, programmi nazionali di ricerca sul tema.

Le aree tematiche individuate: intelligenza artificiale e data science; AI e ciber security; AI per la salute e scienze della vita; AI e industria 4.0; AI per ambiente e agricoltura. Lavori che saranno portati avanti grazie alla guida del Comitato direttivo, al contributo del Gruppo di lavoro realizzato e dei trenta atenei, enti di ricerca coinvolti.

Del resto, l’Europa è al primo posto per le ricerche scientifiche in questo settore e secondo il rapporto “AI Index” è il continente che investe più risorse nella ricerca scientifica del settore.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2