Normative

Giù le mani dall’AI Act



Indirizzo copiato

Secondo quanto confermato dalla vicepresidente della Commissione europea, Henna Virkkunen, Bruxelles starebbe valutando la possibilità di rinviare alcune parti del Regolamento, quelle più complesse da implementare. Non è chiaro se per difficoltà tecniche reali o per le crescenti pressioni delle lobby. Il rischio è che la legge venga svuotata di efficacia

Pubblicato il 16 giu 2025

Agostino Ghiglia

Componente del Garante per la protezione dei dati personali



AI Act rinvio

Chi mi ha seguito in questi anni sa che non sono mai stato tra gli incantati ammiratori dell’AI Act. L’ho sempre definito – con una punta di realistica amarezza – il Benjamin Button della regolamentazione europea: nato vecchio, in parte superato, in parte inadeguato (basti pensare alla classificazione dei chatbot come “a rischio lieve”) e inevitabilmente in ritardo rispetto all’occupazione silenziosa e quotidiana che l’intelligenza artificiale ha messo in atto nelle nostre vite. Un testo che, per come è stato concepito, sembrava voler imbrigliare un’onda con una rete di carta.

AI Act, un “apparato mostruosamente complesso”

Eppure – lo ammetto – un po’ ci avevo creduto. Perché, nonostante le sue oltre 400 pagine, con 180 considerando, 113 articoli e 13 allegati, l’AI Act aveva l’ambizione – rara di questi tempi – di dire una cosa semplice ma potente: non tutto ciò che è tecnicamente possibile è anche giuridicamente accettabile. Dentro quell’apparato mostruosamente complesso, tra articoli, classificazioni di rischio e rinvii incrociati, c’era un cuore etico ben visibile. Finalmente si parlava non solo di ciò che l’intelligenza artificiale è in grado di fare, ma di ciò che dovrebbe, e soprattutto non dovrebbe, fare.

Per esempio: esclusione dell’AI dai sistemi di manipolazione cognitiva rivolti a soggetti vulnerabili (un riferimento tutt’altro che implicito ai meccanismi di persuasione di molte piattaforme), divieto di social scoring, obblighi di trasparenza per i sistemi ad alto rischio, quelli che decidono se assumerci, curarci o condannarci. In altre parole: vietato giocare con la vita delle persone senza istruzioni chiare, responsabilità ben definite e garanzie costituzionali.

E poi, finalmente, parole che fino a ieri sembravano patrimonio di convegni accademici e linee guida disattese:

  • spiegabilità, ovvero il diritto di sapere come e perché una decisione viene presa da una macchina;
  • tracciabilità, perché anche gli algoritmi devono lasciare tracce e rispondere delle proprie azioni;
  • divieto di discriminazione automatica, a tutela di chi rischia di essere penalizzato da modelli addestrati su dati sbagliati;
  • riconoscibilità dei sistemi generativi, per sapere sempre quando stiamo parlando con un software;
  • limiti rigorosi all’uso della sorveglianza biometrica.

Soprattutto, la riaffermazione della dignità umana come principio cardine, non come nota a piè di pagina.

Non si trattava più di raccomandazioni vaghe o codici etici da homepage aziendale. Si parlava di obblighi vincolanti, con responsabilità giuridiche e sanzioni reali. Si trattava di mettere la persona, e non la logica del codice, al centro del processo. Una piccola rivoluzione normativa che non voleva frenare l’innovazione, ma finalmente indirizzarla.

AI Act rinvio

La Commissione europea potrebbe rinviare alcune parti dell’AI Act

Poi, come spesso accade, tra l’ambizione e la realtà si è infilata la burocrazia. Secondo quanto riportato da Politico, e confermato dalle dichiarazioni della vicepresidente della Commissione europea Henna Virkkunen, Bruxelles starebbe valutando la possibilità di rinviare alcune parti dell’AI Act, in particolare quelle più complesse da implementare. Non è chiaro se per difficoltà tecniche reali – e su questo si può anche discutere – o per le crescenti pressioni delle lobby, divenute più esplicite con il ritorno sulla scena di una Washington decisamente meno incline ai vincoli regolatori.

Nel frattempo, quella che era stata annunciata come la prima legge sull’intelligenza artificiale al mondo rischia di trasformarsi in una cornice vuota. Una bella architettura senza tetto. Mentre le imprese attendono linee guida e standard tecnici ancora in fase embrionale, prende piede l’ipotesi dello “stop-the-clock”, una sospensione dei termini di applicazione che, tradotta in parole semplici, significa: aspettiamo. Rimandiamo. Nel dubbio, non decidiamo.

E mentre si prende tempo, le Americhe sbarcano a Bruxelles. Nel film “Non ci resta che piangere”, Troisi e Benigni cercavano di impedire a Colombo di scoprire l’America. Qui, invece, sembra che siano proprio le Americhe ad aver messo piede nel cuore dell’Europa, con l’obiettivo opposto: fermare l’AI Act prima che possa davvero incidere. Le pressioni, sia diplomatiche che industriali, si moltiplicano, e con esse aumentano anche le resistenze politiche all’interno dell’Unione.

Il rischio di un rinvio: perché non può essere la tecnica a decidere

Il rischio è evidente: che tra un rinvio, un compromesso e un ritardo, la montagna normativa partorisca un topolino (ancora più irreversibilmente vecchio a differenza del buon Benjamin…) magari innocuo, forse inutile, certamente ininfluente.

All’ultima riunione dei ministri digitali, persino la Polonia – solitamente non in prima fila nella difesa dei principi etici europei – si è detta favorevole a un rinvio, purché ben pianificato. Una posizione apparentemente ragionevole, che però rischia di trasformarsi nell’alibi perfetto per non fare nulla.

La verità è che il tempo, in questi ambiti, non è mai neutro. Ogni mese che passa senza una cornice chiara è una nuova occasione per le grandi piattaforme di occupare lo spazio lasciato vuoto. Spazio che poi diventa norma di fatto: opaca, unilaterale, proprietaria. E mentre l’Europa discute sugli allegati tecnici, qualcun altro definisce i nuovi diritti digitali per default.

Non si tratta di essere contro la tecnica. Anzi. Si tratta di evitare che sia la tecnica a decidere da sola cosa siamo e cosa diventeremo. Serve una legge che riconosca che innovazione e diritti fondamentali non sono poli opposti, ma forze da tenere in equilibrio. Un equilibrio fragile, certo, ma irrinunciabile. E che va presidiato con attenzione, non rinviato sine die.

In questo senso, tornano attuali le parole del Premio Nobel per la Chimica, John Charles Polanyi, pronunciate durante un simposio internazionale dedicato alla scienza e ai diritti umani: “Il rispetto dei diritti umani, essenziale se vogliamo usare saggiamente la tecnologia, non è qualcosa di estraneo da innestare sulla scienza. Al contrario, è parte integrante della scienza stessa.”

Un monito lucido e necessario. Perché non si tratta di frenare la tecnica, ma di orientarla. Di ricordare che non esiste progresso senza giustizia, né innovazione che possa definirsi tale se non è umanamente sostenibile.

Conclusioni

Se l’AI Act sarà smontato pezzo dopo pezzo o subirà semplicemente ulteriori ritardi nei suoi già eterni (per l’era digitale) tempi di applicazione, prima ancora di entrare in vigore, non sarà solo un fallimento giuridico. Sarà il segnale, chiaro e amaro, che l’Europa ha rinunciato – ancora una volta – ad avere una voce autonoma nel mondo digitale.

E allora sì, non ci resterà che piangere. O ridere amaramente, sperando che almeno il prossimo chatbot emozionale ci consoli grazie alla compassione di cui lo abbiamo nutrito, debitamente manipolati, con il nostro linguaggio e le nostre storie di vita quotidiana.

Articoli correlati

Articolo 1 di 4