La Ue detta le regole per i sistemi di intelligenza artificiale

Presentata il 21 aprile la bozza di Regolamento. L’approccio è: maggiore rischio, maggiori regole. Previste multe per le aziende che non si atterranno alle disposizioni

Pubblicato il 22 Apr 2021

Daniela Di Leo

Avvocato, ICT, Consulente Privacy & Data Protection

robot

L’Europa inizia a muoversi sulla regolamentazione dell’intelligenza artificiale. Il 21 aprile 2021, infatti, la Commissione Europea ha presentato una bozza di Regolamento. Le nuove regole Ue saranno applicate direttamente e nello stesso modo in tutti gli Stati membri, sulla base di una definizione di intelligenza artificiale (IA) adeguata alle esigenze future, e seguono un approccio basato sul rischio: maggiore il rischio, maggiori le regole. E per le aziende che non le rispetteranno saranno previste delle multe, fino al 6% del fatturato.

Vengono previste al riguardo quattro tipi di classificazione del rischio:

rischio inaccettabile, con conseguente divieto di utilizzare i sistemi di intelligenza artificiale rientranti in questa categoria;

rischio alto, i sistemi potranno essere messi sul mercato, ma prima saranno soggetti a obblighi rigorosi;

rischio limitato, chi utilizza i sistemi considerati tali deve ottemperare a un obbligo di trasparenza;

rischio minimo, i sistemi potranno essere utilizzati liberamente.

Le regole della Ue per l’intelligenza artificiale: quattro livelli di rischio

Rischio inaccettabile: i sistemi di IA considerati una chiara minaccia per la sicurezza, i mezzi di sussistenza e i diritti delle persone saranno vietati. Sono compresi i sistemi o le applicazioni di IA che manipolano il comportamento umano per aggirare il libero arbitrio degli utenti (ad esempio, giocattoli che utilizzano l’assistenza vocale per incoraggiare i comportamenti pericolosi dei minori) e i sistemi che consentono ai governi di attribuire un “punteggio sociale”.

Rischio alto: sono considerati ad alto rischio i sistemi in cui la tecnologia di IA è utilizzata:

  • in infrastrutture critiche (ad esempio i trasporti), poiché potrebbe mettere a rischio la vita e la salute dei cittadini;
  • nell’istruzione o formazione professionale, poiché può determinare l’accesso all’istruzione e il percorso professionale della vita di una persona (ad esempio, attribuzione del punteggio degli esami);
  • in componenti di sicurezza dei prodotti (ad esempio un’applicazione di IA utilizzata nella chirurgia assistita da robot);
  • nell’ambito dell’occupazione, della gestione dei lavoratori e dell’accesso al lavoro autonomo (ad esempio, software di selezione dei CV per le procedure di assunzione);
  • in servizi pubblici e privati essenziali (ad esempio, lo scoring del credito che può negare ai cittadini la possibilità di ottenere un prestito);
  • in attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio, valutazione dell’affidabilità delle prove);
  • nella gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio, verifica dell’autenticità dei documenti di viaggio);
  • nell’amministrazione della giustizia e nei processi democratici (ad esempio, applicazione della legge a una serie concreta di fatti).

I sistemi di IA ad alto rischio saranno soggetti a obblighi rigorosi prima che possano essere immessi sul mercato:

  • adeguati sistemi di valutazione e attenuazione dei rischi;
  • elevata qualità dei set di dati che alimentano il sistema, per ridurre al minimo i rischi e i risultati discriminatori;
  • registrazione delle attività per garantire la tracciabilità dei risultati;
  • documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sulle sue finalità affinché le autorità possano valutarne la conformità;
  • informazioni chiare e adeguate per l’utente;
  • appropriate misure di sorveglianza umana, per ridurre al minimo i rischi;
  • elevato livello di robustezza, sicurezza e accuratezza.

In particolare, tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. Il loro utilizzo in tempo reale ai fini di attività contrasto in spazi accessibili al pubblico è in linea di principio vietato. Sono previste poche eccezioni rigorosamente definite e regolamentate (ad esempio, ove strettamente necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire autori o sospettati di un reato grave). Tale uso è soggetto all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti per quanto riguarda il tempo, la portata geografica e le banche dati ricercate.

Rischio limitato: ossia sistemi di IA con specifici obblighi di trasparenza: quando utilizzano sistemi di IA come le chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina, in modo da poter decidere con cognizione di causa se continuare ad usarli oppure no.

Rischio minimo: la proposta legislativa consente il libero utilizzo di applicazioni quali videogiochi o filtri spam basati sull’IA. La grande maggioranza dei sistemi di IA rientra in questa categoria. Il progetto di regolamento non interviene in questo caso, poiché questi sistemi di IA presentano solo un rischio minimo o nullo per i diritti o la sicurezza dei cittadini.

Le regole della Ue per la governance dell’intelligenza artificiale

In termini di governance, la Commissione propone che le autorità nazionali di vigilanza del mercato competenti supervisionino le nuove regole, mentre l’istituzione di un comitato europeo per l’intelligenza artificiale ne faciliterà l’attuazione e stimolerà lo sviluppo di norme per l’IA. Vengono inoltre proposti codici di condotta volontari per i sistemi di IA non ad alto rischio, nonché spazi di sperimentazione normativa per facilitare un’innovazione responsabile.

Il coordinamento rafforzerà la leadership dell’Europa in relazione a un’IA antropocentrica, sostenibile, sicura, inclusiva e affidabile. Per mantenere la competitività a livello globale, la Commissione si è impegnata a promuovere l’innovazione nello sviluppo e nell’utilizzo delle tecnologie di IA in tutti i settori industriali e in tutti gli Stati membri con l’obbiettivo di:

  • creare le condizioni favorevoli allo sviluppo e all’adozione dell’IA attraverso lo scambio di informazioni strategiche, la condivisione dei dati e gli investimenti nelle capacità di calcolo critiche;
  • promuovere l’eccellenza in materia di IA “dal laboratorio al mercato” istituendo un partenariato pubblico-privato, costruendo e mobilitando capacità di ricerca, sviluppo e innovazione e mettendo a disposizione delle PMI e delle pubbliche amministrazioni strutture di prova e sperimentazione nonché poli dell’innovazione digitale;
  • garantire che l’IA sia al servizio delle persone e sia una forza positiva nella società, operando in prima linea nello sviluppo e nella diffusione di un’IA affidabile, coltivando talenti e competenze mediante tirocini, reti di dottorato e borse post-dottorato in ambito digitale, integrando la fiducia nelle politiche in materia di IA e promuovendo la visione europea di un’IA sostenibile e affidabile a livello globale;
  • creare la leadership strategica in settori e tecnologie ad alto impatto, compreso l’ambiente, concentrandosi sul contributo dell’IA alla produzione sostenibile, alla salute, ampliando lo scambio transfrontaliero di informazioni, nonché al settore pubblico, alla mobilità, agli affari interni e all’agricoltura e alla robotica.

Questi sono i criteri e i principi ispiratori che saranno contenuti nel quadro normativo di riferimento il cui compito sarà quello di infondere fiducia, sicurezza, equità e trasparenza con la forte raccomandazione per gli operatori e stakeholder che l’intelligenza artificiale sia sempre incentrata sull’etica e non solo sul profitto economico e che la tecnologia sia sempre al servizio dell’uomo.

L’esigenza di regole precise per l’utilizzo dei sistemi di intelligenza artificiale

L’utilizzo di applicazioni basate sull’intelligenza artificiale è sempre più diffuso e impatta su molti aspetti della vita delle persone: giustizia, istruzione, salute e relazioni sociali. Come ogni rivoluzione, anche questa tecnologia porta con sé questioni etiche che non possono essere sottovalutate o messe in secondo piano. Dobbiamo considerare di fondamentale importanza la necessità di porre dei “paletti” etici per evitare che gli automatismi decisionali degli algoritmi creino ingiustizie e diseguaglianze sociali.

Il “potere” degli algoritmi

Tutti i sistemi di apprendimento automatico o machine learning sono basati su una quantità enorme di dati difficili da controllare, la cui scelta per creare l’algoritmo può derivare da pregiudizi o da una distorta percezione della realtà, ad esempio quando nella creazione dell’algoritmo non si tiene conto di alcune etnie (emblematico al riguardo il caso, immortalato qualche anno fa in un video su Twitter, di un dispenser automatico di sapone che si attivava solo quando la mano che si avvicinava ai sensori era di una persona bianca). In questi casi la progettazione presentava un errore alla base, commesso dal team di progettazione.

Il momento della programmazione è perciò fondamentale, perché chi programma l’intelligenza artificiale lo fa portando nei dati il proprio insieme di asset valoriali ed etici e gli algoritmi condizionati dai bias cognitivi danno adito a comportamenti discriminatori che spesso riguardano il genere, la razza, la cultura o lo status sociale.

I possibili scenari e le questioni etiche

Le applicazioni di sistemi di intelligenza artificiale possono essere molteplici e possono riguardare ogni aspetto della vita così come le implicazioni di ordine etico. Vediamo a titolo esemplificativo alcuni scenari possibili e le questioni che ne sorgono anche con lo scopo di stimolare il lettore a porsi ulteriori domande.

Veicoli a guida autonoma

Prendiamo un veicolo a guida autonoma e immaginiamo varie situazioni di pericolo che vedono coinvolti passeggeri e pedoni. Decidere in fase di progettazione quale comando dare all’auto è un chiaro esempio di dilemma etico. Chi salvare? Quali sono i criteri per stabilire chi deve essere salvato? Per affrontare questa sfida, il Massachusetts Institute of Technology ha implementato la Moral Machine, una piattaforma sperimentale online progettata per esplorare i dilemmi morali affrontati nella progettazione dei veicoli autonomi. Questa piattaforma ha raccolto circa 40 milioni di risposte da milioni di persone in vari paesi. Nel sondaggio il lettore è inviato a decidere chi salvare nei vari scenari di incidente descritti e proposti: i passeggeri o i pedoni che possono essere uomini, donne, dirigenti, atleti, operai, senzatetto, delinquenti, bambini, donne in stato di gravidanza e animali domestici. Bisogna notare tuttavia che gli scenari oggetto dell’esperimento forniscono informazioni che nella realtà non sono definibili a priori, non sempre si può sapere se si verificherà il decesso di una persona o il semplice ferimento, la fascia di età precisa e non sempre si può sapere o dedurre il lavoro svolto, sempre se quest’ultimo possa essere rilevante ai fini della decisione; infatti, è singolare a mio avviso che vengano considerati come parametri le professioni delle persone coinvolte, il sesso o lo status sociale.

regole Ue intelligenza artificiale

Le conclusioni dell’esperimento, pubblicate sulla rivista “Nature: International Journal of Science” hanno sottolineato la tendenza generale dei partecipanti a salvare il maggior numero di vite umane, anziché animali domestici, salvare il maggior numero di persone possibili e a salvare i più giovani. Ciò non toglie che dai risultati dei vari Paesi siano emerse differenze più marcate dovute alla cultura di appartenenza. Da ciò consegue come sia rilevante l’influenza culturale nelle varie decisioni: se vari gruppi di partecipanti di nazionalità diverse avessero dovuto programmare un’auto a guida autonoma, gli input nella creazione degli algoritmi sarebbero stati differenti.

È possibile partecipare al sondaggio o leggere gli scenari proposti senza partecipare al sondaggio, oppure verificare gli esiti delle risposte dei vari Paesi.

Giustizia predittiva

Con questa espressione quasi sempre si pensa alla possibilità che un algoritmo prenda le decisioni al posto di un giudice o che preveda la possibilità che venga commesso di nuovo un reato. In realtà si potrebbe anche intendere l’uso degli algoritmi con una funzione di supporto per gli operatori del settore e non di sostituzione nel giudizio, ad esempio con l’utilizzo di banche dati che siano in grado di prevedere le sorti di una causa in una determinata materia.

Da un’indagine effettuata dall’agenzia di stampa indipendente e no profit ProPublica, su uno degli strumenti di previsione del rischio di recidiva utilizzati chiamato Compas (Correctional Offender Management Profiling for Alternative Sanctions), è emerso che lo stesso presentava delle distorsioni a sfavore di persone di colore, le quali avevamo molte più probabilità di essere giudicate erroneamente ad alto “rischio di recidiva” rispetto agli imputati bianchi. La maggior parte delle persone arrestate deve rispondere a un questionario Compas. Le risposte vengono inserite nel software per generare punteggi, comprese le previsioni di “rischio di recidiva” e “rischio di recidiva violenta”. Sono stati esaminati più di 10mila imputati nella contea di Broward, in Florida, dove maggiormente si utilizza Compas, e sono stati confrontati i loro tassi di recidività previsti con il tasso che si è effettivamente verificato nell’arco dei due anni successivi. Il punteggio prevedeva correttamente la recidività al 61%, ma nella previsione di “recidiva violenta” era corretto solo il 20% delle volte. Si prevedeva spesso che gli arrestati neri fossero a rischio di recidiva più elevato di quanto non lo fossero in realtà. L’analisi ha rilevato che gli imputati neri che non hanno commesso reati per un periodo di due anni avevano quasi il doppio delle probabilità di essere classificati erroneamente come rischio più elevato rispetto ai bianchi (45% contro 23%).

Dall’analisi è emerso tra l’altro che gli imputati bianchi che hanno commesso reati nei due anni successivi sono stati erroneamente etichettati a basso rischio quasi il doppio delle volte rispetto ai recidivi neri (48% contro 28%). L’agenzia di stampa ha eseguito dei test per verificare che tali disparità non fossero dovute in realtà ai precedenti degli imputati o al tipo di crimine per cui sono stati arrestati; è stato isolato il fattore razziale dalla storia criminale, dalla recidiva, dall’età e dal sesso, ebbene gli imputati di colore avevano ancora il 77% di probabilità in più di essere classificati come a più alto rischio di commettere un futuro crimine violento e il 45% di probabilità in più di commettere un qualsiasi crimine.

Il fatto che tali strumenti siano utilizzati oltre oceano non ci deve sottrarre dall’opportunità di alcune considerazioni di carattere etico.

Innanzitutto, bisogna chiedersi se sia il caso di permettere a delle macchine di decidere della libertà delle persone e se sia necessario passare da un sistema di condanna per ciò che è stato commesso ad un sistema di punizione per il rischio di commettere un reato. Inoltre, bisogna essere molto cauti nella progettazione di un algoritmo che, come abbiamo visto, può dare luogo a disuguaglianze e ingiustizie. Infine, occorre un sistema che consenta la trasparenza e il controllo degli algoritmi in settori così delicati come può essere l’amministrazione della giustizia. [2]

Relazioni sociali, lavoro e istruzione

La maggior parte delle persone associa l’intelligenza artificiale a complessi macchinari o robot umanoidi, ma l’intelligenza artificiale è molto più pervasiva. Sono i software a decidere i post delle bacheche social o se un curriculum verrà scartato automaticamente; oppure, in base a tutte le informazioni che la rete possiede su di noi, con chi si ha più probabilità di avere una relazione a lungo termine. Affidare le nostre scelte, le nostre decisioni ai dati, agli algoritmi mina il nostro senso critico, la nostra capacità di valutazione e di discernimento. Gli algoritmi sono basati su dati raccolti, ma l’essere umano è in continua evoluzione, non è detto che ciò che si pensa oggi lo si penserà anche domani. Magari, ai più, tutto questo potrebbe anche non suscitare alcuna questione etica, ma solo reazioni di soddisfazione per l’ottimizzazione e il progresso raggiunto, ma la posta in gioco è troppo alta per fermarsi all’apparenza, bisogna analizzare i rischi che determinati sistemi comportano. Chi garantisce che un curriculum non venga automaticamente scartato solo perché gli algoritmi alla base della decisione presentano dei pregiudizi legati al sesso o all’etnia o al luogo di provenienza? Pensiamo ipoteticamente che un’università implementi un software per decidere gli studenti da ammettere. Chi garantisce che determinati studenti non vengano esclusi a priori solo perché il loro pregresso percorso scolastico non ha raggiunto determinati livelli di preparazione e quindi si può erroneamente pensare che non renderanno nemmeno durante il percorso universitario? Tale ipotetico sistema sarebbe molto preoccupante poiché non terrebbe conto del contesto; ad esempio, uno studente potrebbe aver avuto dei problemi familiari o di salute che non gli hanno consentito di raggiungere un determinato livello di rendimento o più semplicemente le materie studiate in precedenza non lo appassionavano abbastanza. La verità è che non si può realmente prevedere se e quanto uno studente renderà negli anni universitari.

La necessità di un approccio etico

Il pericolo di un’intelligenza artificiale senza controllo e largamente diffusa è quello che si crei una società che lascia escluse le minoranze, gli ultimi, le persone vulnerabili, una società che esclude e non include. La necessità di mettere subito dei paletti nasce dal fatto che quando i costumi, le consuetudini, le abitudini sono ripetuti da tanti e, sempre più frequentemente, è più facile che diventino naturali ed accettati.

L’obiettivo delle tecnologie e dell’intelligenza artificiale deve essere quello di creare un sistema dove la macchina sia al servizio dell’uomo, è necessario che si abbia un approccio antropocentrico, che tenga in considerazione delle minoranze, delle etnie e che non faccia differenze di genere. L’innovazione deve essere orientata al futuro delle generazioni e deve essere rispettosa dell’uomo e della Terra. Gli sviluppi tecnologici legati alle intelligenze artificiali possono essere molteplici, ma bisogna mettere dei limiti ogni qualvolta non sia mantenuta l’uguaglianza tra gli uomini e non vi sia una ricerca oggettiva del bene comune. L’approccio etico è, a mio avviso, il binario sul quale deve correre lo sviluppo delle intelligenze artificiali; la domanda che bisogna porsi non deve solo essere come la tecnologia può costituire una soluzione ai vari problemi, ma in che modo la tecnologia può garantire uno sviluppo umano che sia rispettoso dei valori fondanti di una società democratica.

Note

  1. Paolo Benanti, “Le macchine sapienti” – Ed. Marietti 1820, (2018)

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 3