Normative europee

Intelligenza artificiale: l’UE deve accelerare sulle regole

A oltre un anno dalla proposta di Regolamento sull’AI, all’interno dell’Unione persistono importanti divergenze, soprattutto in tema di riconoscimento biometrico. L’Europa non può rischiare di perdere ancora terreno e di ritardare ulteriormente l’introduzione di una normativa che rivendichi i propri principi rendendoli validi per tutti gli Stati membri e nei rapporti con i partner terzi

Pubblicato il 20 Giu 2022

Zakaria Sichi

Studio legale Martorana

ue parlamento

La leadership nel campo dell’intelligenza artificiale è uno degli obiettivi della strategia europea per il digitale. L’UE mira ad assumere il ruolo di capofila nel settore, diventandone il riferimento principale. Tuttavia, a oltre un anno dalla proposta di Regolamento sull’AI, c’è ancora strada da fare.

L’obiettivo dell’Ue si colloca nel contesto di una corsa frenetica verso la leadership del settore; l’Europa teme di perdere terreno rispetto ai competitors, con la prospettiva possibile di passare dal sogno di realtà capofila, al rischio di doversi adeguare agli standard altrui.

L’allarme della Commissione speciale AIDA

Il 5 aprile scorso, la Commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA) ha pubblicato un report sull’AI nel quale si rivolge direttamente al Parlamento europeo lanciando l’allarme sul ruolo attuale dell’UE nella corsa alla leadership del settore.

La Commissione evidenzia l’importanza della competizione globale nel settore, a causa dell’enorme valore economico e delle ampie capacità tecnologiche accumulate in quelle economie che impegnano la maggior parte delle risorse nella ricerca, nello sviluppo e nel marketing dell’intelligenza artificiale.

Da questo punto di vista, l’AIDA sottolinea come sia cambiata la posizione dell’UE. Secondo la Commissione, infatti, il ruolo avuto dall’Europa nel corso della sua storia è sempre stato quello di guida del progresso e degli standard internazionali, precisando come sia invece rimasta indietro nel mercato digitale, investendo meno di alcune delle principali economie come gli Stati Uniti o la Cina; in altri termini, la Commissione ritiene che vi sia il rischio concreto che gli attori europei siano emarginati nello sviluppo di standard globali e che i progressi della tecnologia e dei valori europei siano messi in discussione.

Inoltre, l’intelligenza artificiale è una delle principali tecnologie emergenti anche nell’ambito della c.d. quarta rivoluzione industriale: consente l’introduzione di prodotti e servizi innovativi, ha il potere di aumentare la scelta dei consumatori e può rendere i processi di produzione più efficienti. In altri termini, l’AI influenzerà ogni aspetto della vita, dai mezzi di sussistenza alla costruzione del futuro assetto economico globale.

Per queste ragioni, secondo la Commissione, la corsa alla leadership del settore attualmente in atto è diventata ancora più agguerrita, poiché guidare lo sviluppo dell’AI e determinarne gli standard significa guidare il futuro.

Al contempo, però, l’AIDA sottolinea che l’AI dovrebbe rimanere comunque una tecnologia affidabile e incentrata sull’uomo, senza sostituire l’autonomia umana né causare la perdita della libertà individuale.

Il quadro normativo sull’AI dell’Ue

A tal proposito, l’UE ha dichiarato da tempo la sua intenzione di introdurre un quadro normativo sull’AI che tenga conto delle persone come centrali negli sviluppi futuri, sulla scia dell’ormai consolidato Regolamento in materia di protezione dei dati personali (GDPR). Sotto questo aspetto, l’UE deve essere in grado di definire il proprio approccio normativo, compresa la tutela dei diritti e delle libertà fondamentali, e di agire come normatore globale.

Ebbene, qui risiede l’importanza di rendere l’UE la realtà da seguire nell’ambito dell’intelligenza artificiale: definire gli standard e plasmare il panorama normativo a livello internazionale significa far sì che gli altri competitors debbano adeguarsi ai principi europei, tutelando l’Unione da eventuali regolamentazioni che ne violino i valori fondanti, soprattutto laddove vengano decidi da Paesi rinomati per la loro posizione discutibile in termini di diritti e per l’uso ambiguo delle nuove tecnologie.

Per fare questo – afferma AIDA – sono necessari un quadro normativo chiaro, un impegno politico e una mentalità più lungimirante, elementi che spesso risultano mancare e che invece sono la base per fare in modo che gli attori europei abbiano successo nell’era digitale e diventino leader tecnologici nell’IA. Solo così, secondo l’AIDA, è possibile sfruttare al massimo le potenzialità delle nuove tecnologie limitandone al contempo i rischi per le persone.

Il punto sulle iniziative europee

Il 21 aprile 2021 la Commissione europea ha presentato una proposta di Regolamento – nota come Regulation on a European approach for Artificial intelligence – con l’obiettivo di plasmare la legislazione europea sull’intelligenza artificiale, armonizzando, quindi, la normativa applicabile in tutti gli Stati membri e definire gli standard europei in tema di innovazione, sicurezza e tutela dei diritti individuali.

La normativa ha lo scopo di garantire che tutti i sistemi di AI utilizzati siano sicuri, trasparenti, etici, imparziali e controllati dall’uomo, in modo tale da rafforzare la fiducia dei cittadini nell’utilizzo di tali tecnologie senza però compromettere lo sfruttamento dei benefici e delle potenzialità economiche.

Uno degli aspetti più importanti del Regolamento concerne – come già visto nel GDPR – l’approccio basato sul rischio, con una valutazione dei sistemi di AI in base ai rischi ad essi connessi.

Nello specifico, è emblematica la previsione di sistemi vietati a priori in quanto contrastanti con i principi dell’Unione, e si tratta essenzialmente di tutte quelle tecnologie che usano tecniche per distorcere il comportamento umano, o quelle che causano discriminazioni come i sistemi di social scoring utilizzati al fine di attribuire punteggi alle persone in base a determinate caratteristiche fisiche.

Brando Benifei

L’11 aprile scorso c’è stato un ulteriore passo, quando i due correlatori del Parlamento europeo, il liberale Dragoș Tudorache e il socialdemocratico Brando Benifei – che hanno guidato la discussione per conto, rispettivamente, delle commissioni per i diritti civili e per la protezione dei consumatori del Parlamento europeo – hanno raggiunto un’intesa presentando un testo condiviso di regolamentazione dell’AI, pur chiarendo che ci sono ancora elementi su cui lavorare. Infatti, alcune tematiche continuano a essere al centro del dibattito. Tra queste c’è il ruolo da attribuire alle aziende nella valutazione di conformità dei sistemi di AI. Sul punto, la proposta originale vorrebbe lasciare alle società il compito di fare le proprie autovalutazioni, mentre il deputato italiano Benifei ritiene che questo esporrebbe i consumatori a grossi rischi per i propri diritti.

Ma importanti divergenze persistono anche e soprattutto in tema di riconoscimento biometrico. Infatti, la Commissione ritiene che questo debba essere consentito limitatamente a determinate circostanze, come la prevenzione di atti di terrorismo o per il rintracciamento di minori vittime di rapimento. Tale orientamento è condiviso anche da Tudorache e dai conservatori, per i quali le forze dell’ordine dovrebbero poter disporre di questa tecnologia. Al contrario, l’ala progressista del Parlamento europeo – così come alcuni governi nazionali tra cui la Francia – vorrebbero ottenere un divieto assoluto, sulla base del rischio che i limiti possano essere aggirati conducendo a pericolosi abusi, soprattutto in quei Paesi in cui persistono ancora ambiguità per quanto riguarda le garanzie dei diritti. Ad oggi, questi temi spinosi sembrano essere stati momentaneamente messi da parte.

Perché è importante che l’Europa affermi il proprio modello

Un indizio sulle intenzioni dell’Unione europea nel campo del digitale lo si trova nella scelta del Regolamento come fonte di disciplina, il quale è direttamente applicabile in tutti i suoi elementi e in ciascuno degli Stati membri senza la necessità di essere attuato tramite l’adozione di un atto nazionale. Questo rispecchia la scelta già fatta con il GDPR, che evidenzia come la regolamentazione del settore delle nuove tecnologie in Europa si fondi sulla definizione di regole valide per tutti i membri dell’Unione e standard di tutela ai quali i partner terzi si devono adeguare.

Si pensi alla disciplina del trasferimento dei dati personali verso Paesi terzi. I trasferimenti di dati verso Stati non appartenenti allo Spazio Economico Europeo (SEE, ossia UE + Norvegia, Liechtenstein, Islanda) o verso un’organizzazione internazionale sono consentiti a condizione che l’adeguatezza del Paese terzo o dell’organizzazione sia riconosciuta tramite decisione della Commissione europea ai sensi dell’art. 45 del Regolamento UE 2016/679. Questo significa che i destinatari dei dati devono dimostrare di garantire alle persone fisiche gli stessi standard di tutela richiesti dall’Unione europea. In assenza di tale decisione, il trasferimento è consentito solo in presenza di garanzie adeguate come le c.d. clausole contrattuali standard, anch’esse approvate dalla Commissione.

La scelta di una siffatta impostazione si basa sulle particolarità del modello europeo rispetto a quello di altri Paesi. Questo lo si trova anche nel Regolamento sull’AI e nelle dichiarazioni che lo hanno accompagnato fino ai recenti sviluppi. Si tratta anch’essa di una normativa incentrata sulla tutela dei soggetti, che certamente vuole consentire all’UE di sfruttare le potenzialità delle nuove tecnologie ed essere protagonista nel settore dell’intelligenza artificiale, ma senza rinnegare quelli che sono i suoi valori fondanti. In tal senso si pensi ad alcuni casi emblematici.

Con una risoluzione del 6 ottobre 2021, il Parlamento europeo ha preso una posizione chiara sul riconoscimento facciale da remoto e in tempo reale nei luoghi pubblici, chiedendo alla Commissione di vietarli e recependo un parere congiunto dell’European Data Protection Board (EDPB) e dell’European Data Protection Supervisor (EDPS). Al contempo, alcuni Garanti Privacy nazionali, come quello italiano e quello francese, hanno chiesto all’azienda americana Clearview AI, detentrice del più grande database al mondo di immagini estrapolate da videocamere con riconoscimento facciale, di cancellare tutti i contenuti riguardanti i propri cittadini.

Sulla stessa linea, si pensi al divieto assoluto imposto dall’UE ai già menzionati strumenti di social scoring, spesso al centro del dibattito pubblico in quanto causa di discriminazioni basate sul genere, sulla classe sociale o sulla razza.

Ebbene, l’elemento che lega ciascuno di questi strumenti è che, mentre vengono bistrattati dall’Unione in quanto contrastanti con alcuni dei suoi valori fondamentali, sono di uso comune in altri contesti come gli Stati Uniti e la Cina, ossia i due principali competitors dell’Europa nella corsa alla leadership del settore tecnologico. Si pensi ad esempio all’utilizzo massiccio del social scoring in Cina, o al problema della videosorveglianza a New York recentemente denunciato da molti attivisti.

La competizione Usa-Cina

Qualche mese fa, Nicolas Chaillan, membro del Dipartimento della Difesa americano, ha dichiarato di essersi dimesso per protesta contro il ritmo lento della trasformazione tecnologica nell’esercito americano e perché non sopportava di vedere la Cina superare l’America, affermando anche che gli USA non saranno in grado di competere con essa nel campo dell’AI per i prossimi 15 o 20 anni. Anche il sostituto di Chaillan, Frank Kendall III, seppur con toni meno altisonanti, ha comunque fatto capire che il percorso statunitense è stato più lento del previsto.

In effetti, la Cina, oltre agli enormi investimenti economici, sta attuando anche una concreta attività regolamentare. Infatti, dopo la pubblicazione – circa un anno fa – delle linee guida intitolate “Specifiche etiche per l’intelligenza artificiale di nuova generazione”, ha recentemente emanato anche una nuova normativa che si propone l’obiettivo di disciplinare gli algoritmi utilizzati dalle Big Tech cinesi.

Peraltro, la preoccupazione statunitense si inserisce in un percorso che ha comunque visto cospicui investimenti e – come riportato dall’AI Index Report dell’Università di Stanford – una forte crescita delle interazioni tra Stati Uniti e Cina sull’intelligenza artificiale, con un altissimo numero di collaborazioni in pubblicazioni sull’AI dal 2010 al 2021, che sono aumentate di cinque volte in 11 anni.

Conclusioni

Per queste ragioni, il fatto che l’Europa rischi di perdere ancora terreno in tema di intelligenza artificiale e di ritardare ulteriormente l’introduzione di una normativa che rivendichi i propri principi rendendoli validi per tutti gli Stati membri e nei rapporti con i partner terzi, è fondamentale per evitare di dover sottostare a standard incompatibili con il modello europeo. In altri termini, con il GDPR e con le sentenze Schrems della Corte di giustizia che hanno fatto cadere ben due accordi sul trasferimento dei dati verso gli Stati Uniti, l’Unione ha voluto ribadire che essa si fonda su dei valori che non ammettono compromessi e che è necessario che vengano rispettati da tutti. Perdere questo approccio sul tema dell’AI discutendo su domande di cui già si conosce la risposta potrebbe essere un clamoroso autogol.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Articoli correlati

Articolo 1 di 2