Normative

AI Act, la legge europea sull’intelligenza artificiale non convince tutti



Indirizzo copiato

Nonostante siano espressamente vietate pratiche come il riconoscimento facciale e biometrico, il testo prevede ampie deroghe per le forze dell’ordine, in caso di gravi reati. Ma i timori di alcune organizzazioni internazionali, fra le quali Amnesty International, sono davvero fondati?

Pubblicato il 18 mar 2024

Angelo Alù

PhD, Consigliere Internet Society Italia, saggista e divulgatore digitale



AI PACT

Cominciano a emergere le prime criticità della legge europea sull’intelligenza artificiale – AI Act -, alla luce di una serie di preoccupazioni segnalate sui possibili risvolti applicativi della citata normativa, rilevati come effetti collaterali negativi prospettabili non appena sarà operativa a pieno regime tale riforma, 24 mesi dopo la sua entrata in vigore con decorrenza dall’avvenuta pubblicazione in Gazzetta Ufficiale UE. Ricordiamo che il 13 marzo 2024 si è ufficialmente perfezionato il lungo iter procedurale previsto per la formale adozione del cd. “EU AI Act” a seguito della conclusiva approvazione del relativo testo finale da parte del Parlamento europeo.

In particolare, organizzazioni come Access Now, Amnesty international, “ProtectNotSurveil e Center for Democracy & Technology Europe paventano il rischio di “violazioni dei diritti umani” dall’applicazione delle deroghe per le forze dell’ordine in caso di alcuni tipi di reati.

AI Act, l’Europea leader del settore a livello globale

Sul piano giuridico, è innegabile la portata storica dell’intervento regolatorio promosso dall’Unione europea mediante la predisposizione di una disciplina innovativa che ha trovato, dunque, la definitiva consacrazione all’esito di un articolato percorso preparatorio di drafting legislativo realizzato nell’ambito di un progressivo allineamento contenutistico tra i diversi orientamenti politici presi in considerazione durante le svariate tappe interlocutorie di esame e di audizione che si sono susseguite nel corso del tempo, per la stesura finale dell’atto normativo: a partire dall’originaria proposta, formulata dalla Commissione europea nel 2021, come genesi iniziale della riforma, si è, così, arrivati all’adozione del regolamento, concordato in sede di negoziati alla fine del 2023, sino, appunto, al recente ulteriore passaggio istituzionale formalizzato con l’avallo ufficiale espresso dalla maggioranza parlamentare (523 voti favorevoli, 46 contrari e 49 astensioni).

Stando alle dichiarazioni rese note tramite il comunicato stampa dell’Europarlamento, alla base della riforma di cui al cd. “EU AI Act” (nelle sue oltre 450 pagine esplicative delle prescrizioni di cui consta il testo) vi è l’intento legislativo di rendere l’Europea “leader” del settore a livello globale.

Lungo la scia dell’ambizioso cronoprogramma di obiettivi delineati dal cd. “decennio digitale”, puntando sul raggiungimento della propria sovranità tecnologica, l’Unione europea mira, dunque, a introdurre la propria regolamentazione in materia di intelligenza artificiale: il cd. “EU AI Act” può, ormai, considerarsi come vero e proprio atto normativo di diritto derivato UE, in attesa degli ultimi residuali adempimenti che prevedono, tra l’altro, un’ulteriore complessiva verifica finale giuridico-linguistica del testo nell’ambito della cd. procedura “corrigendum” (comunque, entro l’imminente conclusione della corrente legislatura), cui seguirà un successivo passaggio formale in senso al Consiglio.

All’articolo 5 un catalogo di applicazioni vietate

Nell’ottica di assicurare, conformemente ai valori enunciati negli artt. 2 e 3 TUE, la tutela “dei diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale”, il cd. “EU AI Act” prende in considerazione i rischi potenziali sottesi allo sviluppo progettuale dei sistemi di intelligenza artificiale, come si evince dai criteri di classificazione delineati dall’articolo 6 (in combinato disposto con la qualificazione di dettaglio fornita dall’Allegato III). A tenore del citato articolo 6, i sistemi di intelligenza artificiale non sono considerati ad alto rischio quando non presentano un “rischio significativo di danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche, anche nel senso di non influenzare materialmente il risultato del processo decisionale”.

La normativa in oggetto positivizza, inoltre, un catalogo di applicazioni vietate, enucleate dall’articolo 5, la cui disciplina, per espressa previsione legislativa, è dotata di un’efficacia applicativa differita a sei mesi dopo la generale entrata in vigore della riforma organica.

Eventuali utilizzi “impropri” dell’intelligenza artificiale per “per pratiche di manipolazione, sfruttamento e controllo sociale” (cfr. Considerando n. 28) integrano, pertanto, operazioni “abusive” contrarie all’inderogabile nucleo dei principi su cui fonda il consolidato “acquis comunitario”, da cui ne discende una generale inibizione, preclusiva a qualsivoglia possibilità di progettazione. L’ambito di esclusione risulta, peraltro, altresì riferibile a tutte le svariate tecniche di manipolazione sviluppate “per persuadere le persone ad adottare comportamenti indesiderati o per indurle con l’inganno a prendere decisioni in modo da sovvertirne e pregiudicarne l’autonomia, il processo decisionale e la scelta” (cfr. Considerando n. 29).

Il riconoscimento facciale è vietato dal Regolamento europeo

Più precisamente, nell’ambito del Capo II della legge europea sull’intelligenza artificiale, la fattispecie prescrittiva del divieto assoluto di immissione nel mercato, descritta dall’articolo 5, include nella lunga elencazione delle preclusioni (oggetto di periodico esame e aggiornamento ex art. 112), tra l’altro, i sistemi tecnologici ingannevoli e manipolativi che inficiano in qualunque modo la libera autodeterminazione individuale, sfruttando condizioni di vulnerabilità e altre specifiche caratteristiche di varia natura, al fine di provocare danni significativi, nonché le applicazioni di valutazione e di classificazione delle persone, suscettibili di determinare discriminazioni, trattamenti pregiudizievoli o sfavorevoli, e i sistemi che consentono di effettuare analisi predittive connesse alla realizzazione di attività criminose.

Nel regime generale del divieto normativo rientrano, altresì, le applicazioni di riconoscimento facciale mediante tecniche di scraping, i sistemi di intelligenza artificiale in grado di rilevare gli stati emozionali con particolare riferimento ai luoghi lavorativi e agli ambienti scolastici, nonché i sistemi di “categorizzazione biometrica” in tempo reale, installati da remoto presso spazi accessibili al pubblico, in grado di tracciare i dati biometrici per finalità di identificazione profilata.

Le deroghe al Regolamento per le forze dell’ordine

Tuttavia, in deroga al prescritto divieto generalizzato, costituisce una legittima esenzione, ammissibile in via eccezionale, l’utilizzo dei sistemi di identificazione biometrica (RBI) in tempo reale da parte delle forze dell’ordine quando si verificano, a fini di attività di contrasto, una serie di ipotesi tassativamente contemplate dal legislatore in presenza di superiori interessi di tutela rafforzata che ne giustificano l’applicazione a tenore del richiamato articolo 5, letto in combinato disposto con l’Allegato II.

Tali fattispecie comprendono, a mero titolo esemplificativo: ricerca mirata di vittime di sottrazione e persone scomparse, tratta di esseri umani, sfruttamento sessuale di minori e pornografia minorile, traffico illecito di stupefacenti, sostanze psicotrope, armi, munizioni, esplosivi, organi, tessuti umani, materie nucleari e radioattive, omicidio volontario e lesioni gravi, sequestro, detenzione illegale e presa di ostaggi, violenza sessuale, prevenzione di una minaccia imminente per la vita o l’incolumità fisica, o di una minaccia reale, attuale e prevedibile di un attacco terroristico, identificazione di una persona sospettata di aver commesso un reato, ai fini dello svolgimento di un’indagine penale o dell’esecuzione di una sanzione con una pena o una misura di sicurezza privativa della libertà della durata massima di almeno quattro anni, reati ambientali, reati rientranti nella competenza giurisdizionale della Corte penale internazionale, ecc.).

Al ricorrere di tali presupposti, i sistemi di identificazione biometrica in tempo reale sono consentiti purché ciò avvenga, previa valutazione d’impatto sui diritti fondamentali, per quanto strettamente necessario in ossequio al principio di proporzionalità, sempre nel rispetto di rigorose garanzie procedurale entro specifici limiti spazio-temporali soggetti a preventiva autorizzazione giudiziaria o amministrativa.

Rispetto alle prescrizioni esaminate, come prima accennato, pur non essendo ancora entrata formalmente in vigore, in attesa di comprendere nella concreta prassi l’effettivo impatto applicativo della riforma legislativa euro-unionale in materia di intelligenza artificiale, il cd. “EU AI Act” ha suscitato reazioni critiche sulla portata attuativa della disciplina introdotta.

AI act

Le posizioni di Access Now e ProtectNotSurveil

Emblematica, in tal senso, la presa di posizione di “Access Now” (impegnata nella tutela dei diritti digitali, anche mediante la periodica pubblicazione di casi di studio e rapporti tematici).

In particolare, la predetta organizzazione ha pubblicato una dichiarazione congiunta con la coalizione “ProtectNotSurveil”, con cui si stigmatizza espressamente la disciplina prevista dal cd. “EU AI Act”, qualificando la legge come “pericoloso precedente” nel panorama normativo globale, soprattutto in ragione dell’ampio ricorso allo strumento delle eccezioni in grado di restringere la portata applicativa della disciplina generale, sulla base di una peculiare tecnica normativa che realizza una sorta di “scappatoia” dalle previste regole ordinarie.

Secondo le osservazioni riportate, infatti, al di là dei buoni propositi astrattamente enunciati, tale riforma sembrerebbe introdurre la base giuridica invocabile per giustificare il ricorso ai sistemi di intelligenza artificiale in grado di realizzare forme invasive di sorveglianza, con effetti “discriminatori” e “pericolosi”, specie nel settore dell’immigrazione che, peraltro, sarebbe stato espunto dall’area di operatività dei divieti generali di cui all’articolo 5, ove non risulterebbe esplicitamente menzionato tra le ipotesi formalmente contemplate dal legislatore.

Al riguardo, viene paventato il rischio di possibili violazioni dei diritti umani, altresì esposti, come ulteriore preoccupante “vulnus” di tutela, ai pregiudizi causati dall’esportazione extraeuropea verso i paesi terzi di tecnologie di sorveglianza potenzialmente dannose.

Si evidenzia, inoltre, l’esponenziale incremento dei poteri di controllo esercitati dalle competenti autorità, legittimate a operare in condizioni operative di eccezionalità derogatoria rispetto alle disposizioni generali applicabili, ogniqualvolta sia invocabile la salvaguardia della sicurezza nazionale, al fine di giustificare l’applicabilità del regime normativo delle esenzioni ivi contemplate.

Preoccupazione anche da parte di Amnesty International e Center for Democracy & Technology Europe

Sulla medesima scia si segnalano, altresì, ulteriori osservazioni di sostanziale analogo tenore, espresse da Amnesty e dal Center for Democracy & Technology Europe.

Al netto delle preoccupazioni sin da ora paventate nell’ambito di una preventiva anticipazione applicativa della riforma euro-unitaria introdotta in materia di intelligenza artificiale, sarà la concreta prassi, nei prossimi anni, quando entrerà definitivamente in vigore la relativa disciplina, a far emergere le effettive implicazioni attuative del cd. “EU AI Act”.

Sul piano della “ratio” ispiratrice della citata riforma, è indubbio che la legge europea sull’intelligenza artificiale costituisca uno dei pilastri normativi su cui l’Unione europea intende edificare la propria strategia di sovranità digitale (che trova un esplicito riscontro nel complessivo quadro regolatorio costituito, altresì, dal Digital Markets Act, dal Digital Services Act, dal Data Governance Act, cui si aggiunge il Regolamento UE 679/2016) al fine di realizzare un ecosistema digitale solido e sicuro mediante il rafforzamento di adeguate misure difensive in grado di fronteggiare le minacce “ibride” che possono compromettere la vulnerabilità delle infrastrutture critiche, nonché reprimere i crimini e gli illeciti, soprattutto di maggiore disapprovazione giuridico-sociale, avvalendosi, a tal fine, delle potenzialità offerte dalle tecnologie.

Conclusioni

Invero, pur senza sottovalutare i timori sollevati, va rilevato che, sotto il profilo della tecnica normativa adoperata dal legislatore europeo, in virtù del previsto regime autorizzatorio recante le esenzioni derogatorie al divieto generale di cui all’articolo 5, l’utilizzo eccezionale dei sistemi tecnologici di identificazione biometrica (in via generale preclusi), è ritenuto ammissibile laddove risulti comunque pur sempre agganciato alla previsione tassativa di gravi situazioni che destano notevole allarme giuridico e sociale, laddove si renda necessario rafforzare la salvaguardia di preminenti interessi meritevoli di tutela, a presidio dell’incolumità delle persone e della sicurezza nazionale, nel rispetto di stringenti garanzie procedurali.

Tale evenienza, peraltro, è consentita all’esito di una preventiva valutazione d’impatto sui diritti fondamentali, integrata da appositi obblighi di notifica e comunicazione, nonché, altresì, conformemente al diritto nazionale che ne autorizzi l’uso. Persino nel caso di urgenza debitamente motivata e giustificata, l’eventuale ricorso ai sistemi di intelligenza artificiale consente, rispetto alla disciplina ordinaria, ulteriori temporanee esenzioni e deroghe applicative, soggette però a tempestiva normalizzazione entro l’ordinario regime di regolarizzazione generale senza “indebito ritardo”, a pena di perdita di efficacia.

Le opinioni espresse nel presente articolo hanno carattere personale e non sono, direttamente o indirettamente collegate, in alcun modo, alle attività e funzioni lavorative svolte dall’Autore, senza, quindi, impegnare, in alcun modo, l’Amministrazione di appartenenza del medesimo.

Articoli correlati

Articolo 1 di 4