Normative

Ddl intelligenza artificiale, corsa a ostacoli fra centinaia di emendamenti



Indirizzo copiato

Sono passati oltre sei mesi dal 23 aprile, quando il Consiglio dei Ministri ha comunicato di aver approvato lo schema del disegno di legge sull’intelligenza artificiale. Nel mirino, attività giudiziarie, sicurezza e controllo dei dati, sanità, pubblica amministrazione

Pubblicato il 28 nov 2024

Chiara Ponti

Avvocato, Legal & Compliance e nuove tecnologie



ddl Ai emendamenti
Montecitorio, sede del Parlamento italiano

Il disegno di legge (DDL) italiano sull’intelligenza artificiale procede il suo cammino in Senato e nei meandri delle Commissioni. Non senza ostacoli: innumerevoli infatti sono gli emendamenti proposti – oltre 400, secondo le fonti ufficiali – a questo atto legislativo che, circolando in bozza ancor prima della promulgazione dell’AI Act, ha creato non poco rumore. Da allora in poi, a tappeto con i lavori preparatori per arrivare all’11 novembre 2024, termine ultimo per proporre gli emendamenti al Senato. Vediamo quelli più significativi, alla luce del massiccio fascicolo parlamentare composto in materia.

Ddl AI e lo stato dell’arte: le intenzioni del Governo

Il Ddl sullAI, baluardo del Governo Meloni, è stato nel pieno del dibattito parlamentare. Si insiste, anche alla luce di alcuni recenti fatti di cronaca e delle conseguenze in prospettiva che potrebbero derivare da un uso distorto delle tecnologie emergenti, tra cui i sistemi di AI, sulle aggravanti in caso di un loro abuso, pensando ad alcuni reati (come il riciclaggio o la truffa). Di qui poi stringenti regole per l’uso dei dati – rammentando come l’AI ne faccia uso in gran quantità – nella ricerca sanitaria, ovvero ancora ipotizzando misure volte a segnalare contenuti sintetizzati dagli algoritmi (come immagini o video).

Non solo, anche in ambito professionale l’intenzione è quella di regolamentare bene l’utilizzo dell’AI, ponendo una particolare attenzione ai compiti di sorveglianza nazionale, grazie a un’alfabetizzazione massiccia e a interventi formativi mirati rivolti a scuola e università. Insomma, il Governo sta mettendo non poca carne al fuoco. Ma andiamo per gradi.

Il Ddl AI e gli oltre 400 emendamenti

Risultano, a oggi, 409 gli emendamenti presentati fino alla scadenza dei termini, lo scorso 11 novembre, nelle Commissioni Ambiente e Affari Sociali del Senato al Ddl con le disposizioni e la delega al Governo in materia di intelligenza artificiale (AS1146), più due ordini del giorno: il primo su un sistema di monitoraggio dei costi dell’energia sui data center nazionali (Lega); il secondo volto a impegnare il Governo a definire una strategia sull’utilizzo dell’intelligenza artificiale in ambito giudiziario monitorandone l’impatto, massimizzandone i benefici e contenendone i rischi derivanti dal relativo impiego.

L’obiettivo è evidente: avere una legge sull’intelligenza artificiale all’italiana.

Il Ddl AI e i suoi 26 articoli

Il 23 aprile 2024 il Consiglio dei ministri dava il via libera al disegno di legge sull’intelligenza artificiale, trattando molti aspetti nei suoi 26 articoli; in quella occasione c’eravamo soffermati soprattutto sugli aspetti di privacy e di cybersecurity. Tra i principi, il leitmotiv è sempre questo: imporre l’utilizzo dei sistemi di AI, ad esempio, nell’informazione, senza pregiudizio, a garanzia di un trattamento dei dati personali lecito, corretto e trasparente, grazie a informative semplici e chiare, in linea con il GDPR.

I principi fondanti: un breve ripasso per punti

Tra i principi fondanti ricordiamo quanto elencato nel Ddl, e in particolare:

  • trasparenza;
  • proporzionalità;
  • sicurezza;
  • valorizzazione anche economica del dato;
  • protezione dei dati personali;
  • riservatezza;
  • robustezza;
  • accuratezza;
  • non discriminazione;
  • parità dei sessi;
  • sostenibilità.

Ddl AI: i documenti acquisiti in Commissione

Molteplici sono i documenti acquisiti in Commissione, con specifico riferimento alla 8ª “Ambiente, lavori pubblici” e alla 10ª “Sanità e lavoro”.

Pur richiamandoli tutti, ci soffermiamo su quelli che riteniamo essere i più interessanti, riportandoli testualmente per estratto, e in particolare quelli di cui alla comunicazione nella seduta n. 3 del 22 ottobre 2024, tra cui segnaliamo:

 – Memorie di Agenzia per la Cybersicurezza Nazionale 

Il parere dell’ACN

L’Agenzia per la Cybersicurezza nazionale – ACN – nel suo intervento precisa fin dalle prime battute, che “l’intelligenza artificiale è destinata a coniugarsi con infrastrutture e tecnologie ben note alla comunità della cybersicurezza: centri di elaborazione dati ad elevate prestazioni (high performance computing), reti di distribuzione dei servizi digitali, sia fisse che mobili, di nuova generazione (5G e 6G), servizi c.d. cloud per la gestione efficiente delle enormi moli di dati utilizzate (ivi inclusi gli edge computer), processori e applicazioni specializzati per l’utilizzo delle nuove funzioni e, infine, soluzioni crittografiche per proteggere la confidenzialità e integrità delle informazioni trattate. Può ben dirsi, pertanto, che la regolazione dei sistemi di intelligenza artificiale comincia dalla costruzione di un ecosistema sicuro, composto dalle infrastrutture e dalle tecnologie che ne consentono lo sfruttamento. È questo, in altre parole, il presupposto perché l’intelligenza artificiale, dal livello di astrazione concettuale che fortemente la caratterizza, possa essere portata ad un concreto livello prassistico, presidiato da un immanente principio di sicurezza declinato in ogni suo aspetto”.

Come noto, il Ddl affida ad ACN compiti di vigilanza del mercato, in cui sono incluse le attività ispettive e sanzionatorie, prefigurando “la necessità che vengano sviluppati meccanismi per i controlli di sicurezza utili a consentire il rafforzamento degli strumenti di identificazione e di mitigazione delle vulnerabilità dei sistemi di intelligenza artificiale” (art. 18).

Evidentemente, prosegue ACN, “L’esigenza che per i sistemi e i modelli di intelligenza artificiale (e, conseguentemente, per i prodotti e i servizi che impiegano tale tecnologia) venga garantita, quale precondizione essenziale, la cybersicurezza lungo l’intero ciclo di vita – alla luce di un principio di sicurezza by design che deve essere garantito e, quindi, risultare verificabile – è del resto esplicitamente affermata dall’articolo 3, comma 5, significativamente collocato nel capo I, relativo ai principi e alle finalità del provvedimento legislativo”.

L’opinione del Garante privacy

Per il Garante privacy il Ddl sul’AI va letto “nella consapevolezza del ruolo dirimente che la protezione dei dati svolge nell’indirizzare l’i.a. in una direzione antropocentrica, compatibile con i diritti fondamentali e il principio di non discriminazione, come correttamente sancito dagli artt. 1, c. 1 e 3, c. 1 del Ddl. Molte norme del provvedimento hanno un impatto significativo sulla materia ed esigono, pertanto, un migliore coordinamento sistematico con la disciplina di riferimento”.

Si sofferma poi su aspetti sistematici, “riconducibili in particolare alla delega legislativa per l’adeguamento dell’ordinamento interno all’AI Act, meritevole di integrazione rispetto ai profili la cui specificazione è stata demandata, dal legislatore europeo, alla disciplina dei singoli Stati membri. Particolarmente rilevante, in tal senso, è l’articolo 5, par. 5, dell’AI Act, che demanda a ciascuno Stato membro la decisione sulla possibilità di autorizzare in tutto o in parte l’uso di sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico per finalità di polizia nei limiti previsti, disciplinando tra l’altro condizioni e procedure per l’autorizzazione e per la notifica all’Autorità di protezione dati dell’uso di tali sistemi”.

Le memorie di Confprofessioni con focus su AI e sanità (art. 7, 8 e 9 – Ddl)

Secondo Confprofessioni, che rappresenta il mondo dei professionisti, “le opportunità di crescita e sviluppo che le nuove tecnologie possono apportare alle attività professionali, nella direzione di studi e ambienti di lavoro sempre più avanzati, connessi, interdisciplinari, efficaci nella risposta alle domande degli utenti. Dalla definizione stessa, ormai nota, di intelligenza artificiale come tecnologia in grado di riprodurre l’intelligenza umana grazie alla capacità di elaborazione dei dati emerge chiaramente il ruolo dei professionisti nella selezione dei dati corretti (e utilizzabili anche sotto il profilo etico e deontologico) e nella scelta di obiettivi di output coerenti con i bisogni dei clienti.” A gran voce quindi Confprofessioni ritiene che “l’intelligenza artificiale può, dunque, rivoluzionare il modo in cui gli studi professionali impiegano i dati per fornire risposte a tali bisogni” Con una visione sul futuro in vista del quale si evince che “per restare competitivi in un mercato dei servizi professionali in rapida trasformazione, i professionisti italiani devono “fare rete”, dando vita a studi complessi e multidisciplinari, nei quali l’eterogeneità delle competenze determina l’ampiamento dell’offerta dei servizi”.

Ecco, dunque, che “il professionista indipendente lascia spazio a un’aggregazione a carattere multidisciplinare, in grado di agevolare lo sviluppo delle specializzazioni e delle iperspecializzazioni professionali e di sostenere gli investimenti necessari all’implementazione di sistemi tecnologici avanzati”.

Ne consegue, come si legge in questa relazione, “pertanto affinché la trasformazione indotta dall’avvento delle IA nel settore professionale possa raggiungere le sue grandi potenzialità, essa dovrà essere accompagnata da politiche pubbliche lungimiranti e orientate alla crescita. Occorre prevedere a beneficio delle attività professionali incentivi per lo sviluppo dimensionale, anche in chiave multidisciplinare, e delle infrastrutture digitali”.

La voce di AIGA sull’AI nell’attività giudiziaria (art. 14)

L’art. 14 al comma 2 dispone che “È sempre riservata al magistrato la decisione sulla interpretazione della legge, sulla valutazione dei fatti e delle prove e sulla adozione di ogni provvedimento”.

Secondo AIGA “Tale disposizione di principio potrebbe produrre un effetto limitante all’uso futuro di soluzioni innovative digitali non ancora prospettabili allo stato dell’attuale evoluzione tecnologica omissis. Un atteggiamento di chiusura totale potrebbe, quindi, defraudare a priori la magistratura di strumenti e sistemi di IA con capacità inferenziali che potrebbero invece, sotto la necessaria ed imprescindibile supervisione umana, ottimizzare la funzione giurisdizionale.”

Allora per evitare abusi ecco che diventa essenziale “la centralità della figura umana quale supervisore e verificatore dell’operato dell’IA (alla base di tutta la normativa in materia), stimolando il ruolo attivo del soggetto umano “deployer” concentrando sullo stesso l’imputabilità della responsabilità in caso di errori del sistema”.

La posizione di Confindustria

Secondo la relazione di Confindustria (vedi link a documento integrale pubblicato sopra), “I principi generali esposti non sembrano per ora evidenziare particolari criticità, a meno di interpretazioni eccessivamente restrittive da parte delle autorità di vigilanza in futuro. Il riferimento all’accesso ai dati di alta qualità è inoltre positivo, considerato il ruolo dei dati come fattore abilitante cruciale per lo sviluppo di sistemi di intelligenza artificiale efficaci”.

Mentre segnala come critica l’impostazione del Ddl laddove “si discosta dall’approccio basato su categorie di rischio e casi d’uso seguito dall’Artificial Intelligence Act dell’Unione Europea. Questa divergenza potrebbe influire sul principio di proporzionalità applicato ad alcune disposizioni, in particolare per l’utilizzo dell’intelligenza artificiale in ambito sanitario (art. 7) o in materia di lavoro (art. 10), dove alcuni obblighi potrebbero risultare eccessivamente restrittivi se applicati a sistemi di intelligenza artificiale a rischio minimo o nullo secondo i criteri di valutazione dell’AI Act.”

Ancora, sull’art. 4, comma IV, cioè sul “consenso genitoriale per l’accesso alle tecnologie di intelligenza artificiale da parte dei minori di quattordici anni richiederebbe una attenta valutazione. Oltre a non rendere chiare le modalità con cui andrebbe espresso il commento, l’AI Act europeo non interviene sul tema dell’age verification. L’introduzione dell’approccio basato sul rischio citato in precedenza potrebbe migliorare la proporzionalità della norma, ad esempio non richiedendo un consenso parentale nel caso in cui i rischi di un sistema IA siano minimi o nulli.”

Al riguardo, raccomanda quindi di risolvere questa criticità “introducendo una menzione esplicita all’interesse legittimo quale ulteriore base giuridica consentita dal GDPR. Il fatto che le imprese private siano escluse dall’utilizzo di dati secondari sanitari pubblici per lo sviluppo di sistemi IA in ambito medico (art. 8) è un altro elemento di criticità. Oltre a ignorare il ruolo che il settore privato ha nella ricerca medica e scientifica e la potenziale leva di competitività per l’industria del nostro Paese, la disposizione si pone in conflitto con il futuro Regolamento sullo Spazio Europeo dei Dati Sanitari (EHDS), il cui testo entrerà in vigore in seguito all’approvazione del Consiglio UE e che permetterà esplicitamente anche ai ricercatori del settore privato di usufruire di dataset pubblici e anonimizzati per lo sviluppo di prodotti e soluzioni innovative. Si consiglia quindi di eliminare l’espressione “senza scopo di lucro” dal testo”.

Confindustria ritiene poi assolutamente “positivo invece il riferimento al potenziamento delle competenze STEM nell’istruzione e in generale alla diffusione di competenze legate all’intelligenza artificiale nel sistema educativo e professionale (art. 22 comma b, c, d, e), in particolare dati gli obiettivi di competenze digitali fissati dal Decennio Digitale e ancora lontani dall’essere raggiunti. Si valuta inoltre positivamente il riferimento agli ITS Academy insieme alle università e agli enti di ricerca in ambito di ricerca e trasferimento tecnologico. Si consiglia di valutare tutte le opzioni per massimizzare l’efficacia delle politiche di formazione sulle competenze digitali e di IA. Esempi possono essere la creazione di una Fondazione in partnership pubblico-privata, l’estensione dei percorsi di alfabetizzazione di cui al comma b a cittadini e imprese (aprendo alla possibilità di finanziamenti per la formazione aziendale) e finanziamenti per incentivare percorsi di formazione specifici all’IA per i dipendenti delle aziende, in un ottica di upskilling e reskilling. L’industria ICT potrebbe inoltre essere coinvolta, ad esempio con le sue Academy, per sostenere l’ampliamento dei curricula scolastici e l’offerta di competenze specialistiche.

Sul sistema duale o meglio a tandem ritiene ancora che “L’attribuzione dei ruoli nazionali previsti dall’AI Act (art. 18) a due entità, AGID e ACN, renderà importante monitorare la divisione dei rispettivi ruoli. Sarà quindi necessario evitare una sovrapposizione di competenze e di ridurre al minimo il rischio di frammentazione e confusione normativa, per non danneggiare gli sviluppatori nazionali di sistemi IA tenuti a svolgere la relativa attività di risk assessment e a condividere la propria documentazione secondo gli obblighi del regolamento europeo.”

Circa la Strategia nazionale per l’intelligenza artificiale (art. 17), “si invita a rafforzare il ruolo di coordinamento del Comitato interministeriale per la transizione digitale (CITD), e a coinvolgere maggiormente i Ministeri competenti nella realizzazione della Strategia. La creazione di un forum di coordinamento tra Autorità, Agenzie pubbliche e altri stakeholder interessati a consultazione periodica potrebbe inoltre rendere più efficace il periodico aggiornamento e applicazione della strategia nazionale per l’intelligenza artificiale”.

Gli investimenti nel settore dell’AI: il parere di Confindustria

Da ultimo, gli investimenti nei settori dell’intelligenza artificiale. Per l’art. 21 del Ddl meritano particolare attenzione, affermando come “Lo stanziamento previsto di 1 miliardo di euro all’interno del piano quinquennale 2024-28 di CDP Venture Capital (per una media di 200 milioni l’anno) rischia di risultare insufficiente se confrontato con le risorse messe in campo da altri Paesi dentro e fuori l’Europa. A questo si aggiunge la distribuzione dei fondi assegnati a CDP Ventures non solo sull’intelligenza artificiale ma su più tecnologie abilitanti, che rischia di portare a una frammentazione delle risorse disponibili, impedire alle PMI e start-up scelte di sviluppare una massa critica necessaria per la propria crescita aziendale e vanificare gli sforzi del Governo di sviluppare un ecosistema nazionale dell’intelligenza artificiale. Anche non considerando la frammentazione delle risorse esistenti, date le capacità economiche dei grandi attori privati globali del digitale potrebbe essere utile considerare se questi fondi non potrebbero essere invece destinati a startup e PMI sviluppatrici di sistemi di intelligenza artificiale concentrate su nicchie specializzate, all’interno di settori specifici e rilevanti per l’economia italiana.

Al netto dei fondi già stanziati, si invita inoltre a non sottovalutare l’importanza delle infrastrutture di supercalcolo condivise (sul modello del supercalcolatore Leonardo di Bologna) e a considerare uno stanziamento ad hoc, in cofinanziamento Stato-Regioni e in partnership pubblico privato, mirato al loro potenziamento, orientato verso settori specifici e a disposizione delle imprese, soprattutto PMI, per lo sviluppo di progetti di Intelligenza Artificiale”

Infine, quale ultima considerazione, Confindustria si esprime sugli “obblighi di watermarking per contenuti generati dall’intelligenza artificiale (art. 23) [i quali] potrebbero diventare una criticità se divergessero dalle future regole europee in merito”. Di qui il rimando all’art. 50 dell’AI Act che introduce “obblighi specifici di trasparenza per tutti i modelli di IA (inclusi obblighi di rilevamento ed etichettatura di contenuti generati o manipolati artificialmente), ma rimanda l’applicazione delle regole a codici di condotta decisi a livello di Unione Europea e relativi atti esecutivi”. Sul punto, quindi, suggerisce un approccio cauto, per evitare di frammentare l’Italia rispetto ad altri Paesi europei. Pienamente condivisibile.

ddl ai emendamenti

L’AI nell’attività giudiziaria: proposte e divergenze

La discussione si concentra sull’articolo 14, che regolamenta l’impiego della tecnologia AI nelle attività giudiziarie.

Italia Viva (IV) si distingue per la sua proposta di eliminare le restrizioni attualmente previste, che limitano l’uso dell’AI all’organizzazione e semplificazione del lavoro giudiziario, oltre che alla ricerca giurisprudenziale e dottrinale.

In contrapposizione, il Partito Democratico (PD) e la Lega convergono su alcune richieste chiave, tra cui l’istituzione di un Osservatorio dedicato all’uso dell’AI nel sistema giudiziario. Questo organismo, secondo la visione del PD, avrebbe il compito di definire strategie, monitorare l’impatto della tecnologia e collaborare con le autorità competenti per garantire che i sistemi e modelli adottati rispettino le garanzie costituzionali e i principi del giusto processo.

La Lega, dal canto suo, propone che l’Osservatorio formuli proposte in materia e fornisca pareri preventivi e vincolanti sull’utilizzo di strumenti di AI, assicurando il rispetto dei diritti fondamentali e l’aderenza ai principi etici. Il PD spinge ulteriormente per la creazione di un’Autorità nazionale indipendente, composta da esperti di diritto, filosofia e informatica, con il compito di studiare e regolamentare l’uso dell’AI nel sistema giudiziario, esprimendo pareri vincolanti e formulando proposte legislative.

Un altro punto di convergenza tra PD e Lega riguarda la qualità, affidabilità e aggiornamento dei tool e dei dati utilizzati, garantendo parità di accesso a tutti gli operatori e tendendo verso un’uniformità di applicazione nelle diverse giurisdizioni. Entrambi i gruppi sottolineano l’importanza di mantenere la decisione finale esclusivamente nelle mani del magistrato.

Sul fronte della responsabilità dei magistrati, il PD propone sanzioni deontologiche per il mancato rispetto della riserva decisionale, mentre il Movimento 5 Stelle (M5S) insiste sulla conformità dei tool alle classificazioni di rischio, vietando l’uso per l’assegnazione automatica di sanzioni.

Forza Italia, invece, propone di trasferire la competenza delle cause relative al funzionamento dei sistemi di AI alle sezioni specializzate “impresa”, suggerendo un approccio più tecnico e specializzato nella gestione di queste controversie.

Queste proposte riflettono la complessità e le diverse prospettive politiche sull’integrazione dell’intelligenza artificiale nel sistema giudiziario italiano, evidenziando la necessità di un equilibrio tra innovazione tecnologica e tutela dei principi fondamentali della giustizia.

L’AI nella Pubblica Amministrazione: proposte di modifica e dibattito politico

Le modifiche all’uso dell’intelligenza artificiale (AI) nella pubblica amministrazione, delineate nell’articolo 13 del Ddl, sono al centro di un vivace dibattito tra i gruppi parlamentari. Le proposte avanzate dai gruppi di maggioranza sono piuttosto contenute.

Forza Italia suggerisce una proroga di due anni per i contratti di digitalizzazione attualmente in corso, mentre la Lega si concentra sull’ottimizzazione dell’efficienza amministrativa.

In netto contrasto, i gruppi di opposizione propongono emendamenti più incisivi. Il Partito Democratico (PD) mira a sostituire l’articolo con una versione che imponga un obbligo stringente di motivazione per l’uso dell’AI, correlato al tipo di provvedimento e procedura, garantendo che ogni applicazione tecnologica sia giustificata. L’enfasi è posta non solo sull’efficienza, ma anche sulla qualità e quantità del servizio pubblico.

Il Movimento 5 Stelle (M5S) propone l’adozione di modelli e sistemi open source e open weights per potenziare la trasparenza. Inoltre, suggerisce integrazioni normative specifiche per la formazione nelle scuole e tra le imprese, l’uso dell’AI per la sorveglianza delle infrastrutture, la tutela del patrimonio culturale, la sostenibilità urbana e la prevenzione di eventi calamitosi.

Parallelamente, l’articolo 25, che riguarda modifiche al codice penale, è oggetto di contestazione da parte del PD e di Italia Viva (IV). Entrambi i gruppi chiedono la soppressione delle disposizioni che aumentano le pene per i reati commessi tramite AI e che introducono sanzioni per la diffusione illecita di contenuti generati o alterati con AI, inclusi i deep fake. Inoltre, richiedono l’esclusione delle violazioni delle normative sul diritto d’autore dall’ambito penale.

Queste proposte riflettono le diverse visioni politiche sull’integrazione dell’intelligenza artificiale nella pubblica amministrazione italiana, evidenziando la necessità di bilanciare innovazione tecnologica, trasparenza e tutela dei diritti fondamentali.

Sicurezza dei dati e controllo dell’AI

Il dibattito politico italiano si intensifica attorno alla sicurezza dei dati e all’uso dell’intelligenza artificiale (AI), con un consenso generale sull’importanza di mantenere il controllo nazionale su queste tecnologie e sui data center che le supportano. Tuttavia, le visioni su come implementare questo controllo variano tra i diversi gruppi parlamentari.

L’opposizione è aperta all’idea di utilizzare impianti situati nel territorio dell’Unione Europea per il trattamento dei dati, mentre Fratelli d’Italia insiste affinché i backup siano mantenuti in Italia. La Lega, invece, estende la propria visione includendo la NATO, con un’ottica chiaramente orientata a contrastare l’influenza di Russia e Cina.

Bruto Marton del Movimento 5 Stelle propone una modifica all’articolo 6 che vieta esplicitamente l’uso dell’AI per scopi militari offensivi, inclusi i cosiddetti “robot killer” che possono individuare e colpire bersagli senza intervento umano. Secondo la proposta, le Forze armate potrebbero utilizzare l’AI solo per scopi difensivi e per la protezione delle infrastrutture critiche, sotto la supervisione di un comitato etico di esperti che riferirebbe al Parlamento ogni sei mesi.

Inoltre, i 5 Stelle propongono di incrementare il fondo del Ministero dell’Interno per finanziare progetti comunali finalizzati all’adozione di sistemi di sorveglianza high tech. Questi sistemi sarebbero dotati di software di analisi video per il monitoraggio attivo, con l’invio di allarmi automatici alle centrali delle forze di polizia o a istituti di vigilanza privata convenzionati. La proposta prevede un aumento del fondo di 20 milioni di euro per il 2025, 15 milioni per il 2026 e 10 milioni per il 2027 e 2028. Tuttavia, l’emendamento potrebbe entrare in conflitto con l’AI Act, il regolamento europeo sull’intelligenza artificiale, che vieta la sorveglianza biometrica come il riconoscimento facciale, salvo in specifici casi di indagine.

Articoli correlati

Articolo 1 di 4