guida

AI Act: che cos’è, obiettivi e sanzioni previste



Indirizzo copiato

La prima legge al mondo sull’intelligenza artificiale. Com’è noto, il 21 maggio 2024 il Parlamento Ue ha approvato in via definitiva il Regolamento, dopo la prima approvazione del 13 marzo. Ecco un compendio: scopi, caratteristiche, sanzioni

Aggiornato il 22 mag 2024

Laura Garbati

Avvocato – IT/IP specialist – License Manager

Chiara Ponti

Avvocato, Legal & Compliance e nuove tecnologie



AI Act
Credit: Consiliium Europa

Il 21 maggio 2024 il Consiglio dell’Unione Europea ha approvato in via definitiva l’Artificial Intelligence Act (AI Act), il Regolamento che mira a standardizzare le regole sull’intelligenza artificiale. Una volta firmato dai presidenti del Parlamento europeo e del Consiglio, il provvedimento legislativo verrà pubblicato sulla Gazzetta Ufficiale dell’UE nei giorni successivi, entrando in vigore venti giorni dopo tale pubblicazione. Il regolamento sarà applicabile due anni dopo la sua entrata in vigore, con alcune deroghe per disposizioni specifiche.

L’AI Act viene alla luce grazie al raggiunto accordo politico del 9 dicembre 2023, e alla versione “definitiva” approvata dal Parlamento il 13 marzo 2024. La versione ufficiale “definitiva” è disponibile qui.

Iniziare a capire di che cosa tratta, quali sono gli impatti sul business, come le organizzazioni si stanno preparando e quali sanzioni sono previste in caso di mancata conformità.

Intelligenza artificiale: il Parlamento Ue approva il testo finale dell'AI Act
Video: approvazione dell’AI Act, 13 marzo 2024

Che cos’è l’AI Act

L’AI Act arriva nel 2024, ma viene concepito nel 2021. È un “regolamento” non a caso – seppur impropriamente – etichettato come “Act” o “legge” in altri termini, a differenza della “direttiva”, che richiede una legge nazionale di recepimento, è direttamente applicabile. L’immediatezza, tuttavia, non va intesa tanto nel senso pieno e letterale del termine, pensando a un “qualcosa di fulmineo” – visti anche i tempi di “adeguamento” concessi – quanto in termini di sua omogenea applicazione sull’intero territorio dell’Unione Europea.

Peraltro, la scelta del Regolamento rappresenta, a ben guardare, una tecnica sempre più adottata dal legislatore di Bruxelles. Ne sono un esempio lampante (oltre al GDPR che ha fatto da apripista alla lunga corsa tuttora in atto se non anche nel suo pieno vigore, verso un mercato unico digitale europeo), il recente Data Act, e poi Data Service Act e al suo gemello Data Management Act. Ma un dato è abbastanza certo: la scelta della tecnica legislativa ci dice qualcosa di molto chiaro sugli obiettivi, come vedremo subito dopo e che qui anticipiamo in un due battute: garantire uniformità e certezza.

In un mondo sempre più interconnesso nel quale è palese che la tecnologia corra più veloce e in avanti del legislatore e della sua attività – a tratti ipertrofica – con pervicace (tentativo di) normazione, si delinea l’intento della UE di costruire una strategia non solo di difesa, ma anche di attacco creando per primi le regole, evocando sì lo sviluppo delle tecnologie emergenti, ma prima di tutto il diritto. Non a caso, tutti gli interventi legislativi di quest’ultimo decennio convergono verso la creazione di uno “spazio” di autonomia tutelato e trasparente — basti pensare alle politiche sul cloud, sui dati e sul software — e così l’AI Act, in un certo senso, ne diventa il culmine.

Quindi, formalmente, l’AI Act costituisce un atto regolamentare che, nel giro di 24 mesi dalla sua tanto attesa pubblicazione in GU europea, troverà applicazione quasi integrale in tutti gli Stati membri, dettando regole, garanzie e condizioni in base alle quale i sistemi di AI – provenienti dall’estero – potranno essere immessi, distribuiti, utilizzati sul territorio della UE, e quali no in quanto vietati. Ma andiamo per gradi.

Obiettivi dell’AI Act

Gli obiettivi principali dell’AI Act, prima legislazione al mondo in materia, risiedono nel garantire:

  • una AI a servizio dell’uomo, permettendo – anzi valorizzando – il suo impiego in considerazione dei grandi innegabili vantaggi che offre, a fronte di una rete di protezione che possa difendere quello stesso uomo, dai rischi che questi sistemi comportano;
  • lo sviluppo di una AI, rectius di sistemi di AI, cd antropocentrica, trasparente, affidabile, resiliente. In pratica, sicura e “trustable”, posta unitamente a sostegno all’innovazione, grazie a un approccio basato sul rischio, mutandolo dal GDPR. Ma proprio per proteggere senza “bloccare” ove utile, ecco che elabora regole diversamente graduate rispetto al livello di “rischio” (quale combinazione tra gravità e probabilità) e conseguentemente individuate con il ricorso a una serie di “allegati”, in modo da permetterne il progressivo aggiornamento da parte della Commissione senza necessità di modificare nuovamente la legge.

Di qui, l’AI Act distingue tra sistemi vietati, quelli “ad alto rischio” e quelli ancora “a basso rischio”, cui deve aggiungersi una quarta categoria mediana, concepita fin da principio, che contempla sistemi che rivestono particolari obblighi di trasparenza, in quanto strutturati per interagire direttamente con gli individui.

Ma non è tutto. Il Parlamento europeo, infatti, ha introdotto una nuova casistica parallela, connessa al fenomeno della AI generativa (ChatGPT) e, più in generale, all’avvento del “foundation model”.

AI Act

A chi si applica l’AI Act

Vediamo ora a chi si applica, l’AI Act. Stando alla lettera della bozza definitiva del Regolamento in parola, all’art. 2, scopriamo che esso trova applicazione con riguardo ai:

a) fornitori di sistemi/modelli di AI per il solo fatto che li immettono o li mettono a servizio, a prescindere quindi dal fatto che siano o meno stabiliti/ubicati nella UE;

b) ai deployer – che sono in pratica quelli che il sistema lo usano, e che possono coincidere come essere diversi dai fornitori – di sistemi di AI aventi sede (“luogo di stabilimento”) ovvero poiché situati all’interno della UE;

c) ai fornitori e ai deployer di sistemi di AI con sede ovvero poiché situati in un paese terzo, ove l’output (“prodotto dal sistema di IA”) sia utilizzato nell’UE;

d) agli importatori e ai distributori di sistemi di AI, nonché (lett. e) ai fabbricanti di analoghi prodotti (artificialmente intelligenti);

f) ai rappresentanti autorizzati di fornitori, non stabiliti nella UE e, infine alle persone interessate che si trovano all’interno della Unione (lett. g).

Ancora, ci pare importante rilevare che l’AI Act lascia impregiudicati alcuni Regolamenti, tra cui in primis il GDPR, così come le norme in materia di protezione dei consumatori e di sicurezza dei prodotti. Non solo, l’AI Act come si ha modo di leggere nel testo in parola “non osta a che l’Unione o gli Stati membri mantengano o introducano disposizioni legislative, regolamentari o amministrative più favorevoli ai lavoratori in termini di tutela dei loro diritti in relazione all’uso dei sistemi di AI. Passaggio importante, vieppiù atteso l’impatto diretto sulle imprese dell’AI Act, che segue.

Impatti dell’AI Act sul business

Gli impatti dell’AI Act sono molteplici. Al di là di quelli, altrettanto significativi, sotto il profilo organizzativo (come vedremo più oltre), ecco che questo Regolamento ha e avrà un impatto essenziale nell’orientare gli investimenti e le strategie di business. Infatti, non avrà senso investire in un sistema di AI vietato, o rispetto a cui non si ha certezza circa una chiara governance dei dati di training, idem non si potrà scommettere in settori anche molto promettenti – come quello, ad esempio, sanitario – senza essersi assicurati che quell’infrastruttura di competenze/certificazioni/processi, necessaria e idonea a produrre un sistema affidabile, resiliente e soprattutto certificato nel senso cioè che si trovi in linea con le previsioni dell’AI Act.

Il tutto si traduce in nuove professionalità e di conseguenza opportunità di business, in termini di supporto, consulenza, competitività.

Ogni azione e valutazione strategica al riguardo non può che muovere, all’evidenza, dalla “mappa” dei sistemi di AI principalmente oggetto di regolamentazione, in termini di proibizione (sistemi vietati) e di regolamentazione (sistemi ad alto rischio).

Sistemi di intelligenza artificiale vietati

Così possiamo ora chiederci quali sistemi di intelligenza artificiale risultino vietati. Stando sempre alla lettera nonché alla lettura testuale dell’AI Act, le pratiche di intelligenza artificiale vietate sono quelle che riguardano sostanzialmente l’immissione sul mercato, la messa in servizio o l’uso di un sistema di AI, e in particolare quando queste hanno a che fare con:

  • le cd “tecniche subliminali” vale a dire che agiscono senza l’intervento dell’uomo (consapevole) ovvero che utilizzano “tecniche volutamente manipolative o ingannevoli” dallo scopo o l’effetto di distorcere materialmente il comportamento di una o più persone, pregiudicando considerevolmente la loro “capacità di prendere una decisione” ovvero di prenderne una che “non avrebbe altrimenti preso” comportante un danno significativo;
  • quelle che sfruttano le vulnerabilità di una o più persone (per età, disabilità o altra situazione disagiata di natura sociale o economica) con il precipuo intento di “distorcere” materialmente il loro comportamento al fine di cagionare un significativo danno;
  • quelle che “vanno a caccia” di valutazioni o previsioni circa la probabilità (e quindi più di una mera possibilità) che una persona fisica commetta un reato, “unicamente sulla base della profilazione di una persona fisica o della valutazione dei tratti e delle caratteristiche della personalità”. Tuttavia, al legislatore di Bruxelles preme precisare che “tale divieto non si applica ai sistemi di AI utilizzati a sostegno della valutazione umana del coinvolgimento di una persona in un’attività criminosa” purché questa si basi su fatti oggettivi e verificabili e quindi direttamente connessi a un’attività criminosa posta in essere;
  • quelle che costituiscono o alimentano “banche dati di riconoscimento facciale mediante scraping non mirato di immagini facciali da internet o da filmati di telecamere a circuito chiuso”;
  • quelle sul riconoscimento delle emozioni sul lavoro e nella scuola. Non rientrano tuttavia, secondo il dettato normativo in disamina, e in questa categoria vietata, tutti quei sistemi di AI destinati a essere messi in funzione o sul mercato “per motivi medici o di sicurezza”;
  • quelle per la cd “categorizzazione biometrica” tale da individuare le persone fisiche sulla base dei loro dati biometrici — rinviando alla lettura delle definizioni per capirne la reale portata — e dai quali “trarre deduzioni o inferenze” circa tutti quei dati particolari (ex sensibili/sensibilissimi) come la razza, le opinioni politiche, l’appartenenza sindacale, le convinzioni religiose filosofiche, l’orientamento sessuale;
  • quelle utilizzate per valutare o classificare le persone fisiche o gruppi di persone per un determinato periodo di tempo sulla base del loro comportamento sociale o di caratteristiche personali o della personalità note, inferite o previste, in cui il “punteggio sociale” (cd. “social scoring”) così ottenuto. Provochi un trattamento sfavorevole in contesti diversi da quello in cui i dati son ostati raccolti e/o comunque ingiustificato o sproporzionato.
AI Act

Si pone poi tutto il problema, che qui possiamo solo accennare, inerente all’uso dei sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di attività di contrasto, sì ammessi ma limitatamente per confermare l’identità della persona purché si tenga conto della “natura della situazione che dà luogo al possibile uso, in particolare la gravità, la probabilità e l’entità del danno in caso di mancato uso del sistema; nonché delle conseguenze per i diritti e le libertà di tutte le persone interessate derivanti dall’utilizzo di tali sistemi di AI. Per ulteriori dettagli, dovremo attendere ancora per poter rinvenire quelle che saranno le prassi operative a consolidamento dei confini regolatori.

Sistemi di intelligenza artificiale ad alto rischio

Superati dunque gli ostacoli ovvero di quei sistemi di AI vietati, vediamo ora quali sono i sistemi “ad alto rischio”. Come per i sistemi vietati, il criterio è sempre lo stesso e quindi: la capacità, anche solo potenziale, di arrecare un danno ai diritti fondamentali delle persone, alla salute, alla sicurezza. In breve, alla vita come individui/società (un sistema di AI integrato in una lavatrice difficilmente, per quanto avanzato, mai potrà essere considerato “ad alto rischio”).

Ovviamente il principio di massima, per quanto corretto, necessitava di una declinazione operativa; col che opportunamente il legislatore europeo ha inteso “tessere una trama” di rimandi tra principi (ex art. 6) e ambiti puntuali di cui ai due allegati (I e III), lasciando alla Commissione il preciso compito di aggiornarli e monitorarne tanto l’attualità, quanto la completezza.

Da una lettura incrociata di articolo e allegati emergono le due macrocategorie di sistemi ad alto rischio: l’uno, per così dire, individuato con riferimento alla “categoria merceologica”, l’altro per “ambito di applicazione”.

Sono, infatti, sistemi ad alto rischio, con tutti i doveri e le accortezze che ne conseguono, tutti quei sistemi che costituiscono “componenti di sicurezza” di prodotti, o sono essi stessi prodotti, i quali rientrano nell’ambito ai applicazione – tanto in termini di regole di immissione sul mercato, quanto di certificazione da parte di un ente terzo – di una serie di settori richiamati nello specifico allegato (I).

Prodotti che già da prima e a prescindere che questi siano “intelligenti” (dotati di AI), erano soggetti a certificazioni e verifiche espressamente previsti da normativa europea ad hoc. Pensiamo ai dispositivi medici/medico-diagnostici, alle autovetture, ai sistemi per veicoli natanti, ma anche dei macchinari come i componenti di sicurezza degli ascensori, le imbarcazioni da diporto e le moto d’acqua, nonchè – tra gli altri – i componenti di sicurezza dei giocattoli, le attrezzature a pressione e gli impianti a fune. Tutti questi sistemi sono classificati “ad alto rischio” tout court.

Ancora, l’AI Act al paragrafo 2, definisce ad alto rischio, ma con alcune eccezioni specificate al paragrafo 3 più oltre, tutti quei “sistemi operanti in determinati ambiti” quali: la “biometria; i sistemi di categorizzazione basati sulla deduzione di attributi sensibili e i sistemi funzionali a riconoscere le emozioni delle persone; i sistemi impiegati come componente di sicurezza in infrastrutture critiche nella gestione e nel funzionamento delle infrastrutture digitali critiche, del traffico stradale o nella fornitura di acqua, gas, riscaldamento o elettricità.

Ma non è tutto, altri ambiti “rischiosi” sono quelli dell’istruzione e della formazione, ove i sistemi in questione vi determinino l’accesso, l’ammissione e/o l’assegnazione delle persone a scuole e istituti, di tutti i livelli, o che siano impiegati per valutare l’apprendimento, anche nel caso ciò possa essere usato per orientare il processo di apprendimento o, più in generale, per valutare quanta e quale istruzione una persona fisica potrà ricevere.

Da ultimo, vi rientrano quei sistemi adoperati/adoperabili in ambito lavorativo, pensando a quei sistemi (ad alto rischio) funzionali a guidare l’assunzione, anche tramite pubblicazione di annunci mirati, la selezione e l’analisi delle candidature e/o valutazione candidati, oltre a quelli in corso di lavoro, funzionali cioè ad adottare decisioni nel contesto dei rapporti di lavoro e/o assegnare compiti basati su caratteristiche o comportamenti personali, nonché atti a monitorare/valutare il comportamento e le prestazioni delle persone nel contesto lavorativo.

Vi rientrano poi naturalmente quei sistemi che operano in ambito pubblicistico, o meglio nella sfera di fruizione e garanzia dei servizi e diritti essenziali come la salute e la giustizia, quindi servizi pubblici essenziali.

Per completezza di ragionamento, tuttavia, altro elemento importante da rilevare risiede nel fatto che tutti questi sistemi individuati per ambito di applicazione, possono essere altresì strutturati in modo da non costituire un sistema ad alto rischio, ovvero in altri termini, non presentare quel “danno per la salute, la sicurezza o i diritti fondamentali delle persone fisiche” per i quali i sistemi ad alto rischio sono così per così dire attenzionati.

Al riguardo, il paragrafo 3 dell’art. 6 prevede che i sistemi applicati negli ambiti dell’allegato III possono non essere ad alto rischio se è presente almeno una delle seguenti condizioni:

  • gestisce un compito procedurale limitato;
  • serve a migliorare il risultato di un’attività umana già svolta;
  • rileva schemi decisionali ma non serve a sostituire valutazioni senza revisione umana;
  • esegue un compito meramente preparatorio.

Solo la profilazione costituisce un’eccezione nel senso che se detti sistemi effettuano profilazione di persone fisiche, saranno sempre e comunque considerati ad alto rischio.

Webinar: Regolamento UE – AI Act e normativa tecnica sull’intelligenza artificiale
Video: Normativa tecnica – Agid

Sistemi di intelligenza artificiale a rischio limitato

All’art. 50 e seguenti dell’AI Act, sono previsti sistemi di AI a cd “rischio limitato”. Per la serie, che se i sistemi non sono ad alto rischio non significa un “liberi tutti”: niente affatto.

L’AI Act nel suo testo (di bozza) definitivo oltre ai sistemi ad alto rischio, distingue anche:

  • sistemi – ad alto rischio o meno, in ogni caso destinati a interagire direttamente con le persone fisiche;
  • i modelli di AI “per finalità generali”;
  • i “modelli di AI “per finalità generali con rischio sistemico”, individuando per ciascuna di queste categorie specifici obblighi e precauzioni a carico di fornitori e deployer.

Anzitutto, tutti i sistemi di AI destinati a interagire direttamente con le persone, devono necessariamente garantire trasparenza, necessaria per garantire affidabilità e non manipolazione. Di qui, fin da principio (by design) tutti questi sistemi evoluti dovranno essere sviluppati e progettati in modo che la persone interessate siano informate di stare interagendo con un sistema di AI.

Al riguardo, la Commissione potrà adottare un “atto di esecuzione” che specifichi norme comuni per l’attuazione di tali obblighi informativi.

Tra i modelli di AI per finalità generali, cd “foundation model”, ovvero quei famosi modelli di AI idonei a essere declinati in attività e sistemi, come appunto, l’AI generativa.

A valle, è interessante inoltre notare che il primo criterio di classificazione adottato dall’AI act, per distinguere i modelli “ad alto impatti”, con rischio quindi potenzialmente sistemico, sia non riferito a caratteristiche del fornitore o all’ambito, ma alla potenza di calcolo.

Si considerano infatti ad alto impatto, secondo l’art. 2 par. 2, “quando l’importo cumulativo del calcolo utilizzato per il suo addestramento misurato in Flop è superiore a 10^25”. Si tratta di potenze di calcolo enormi.

Tali modelli, quindi, dovranno essere debitamente segnalati alla Commissione, la quale valuterà i suoi impatti e curerà un elenco pubblico aggiornati di tali sistemi.

Come le aziende si preparano all’AI Act

Le aziende o meglio le organizzazioni (sia pubbliche che private) stanno adottando diverse misure per prepararsi all’AI Act, vediamone alcune.

Anzitutto, sono chiamate a valutare i propri sistemi di intelligenza artificiale nel senso che devono identificare tutti quei sistemi di AI i quali utilizzano/sviluppano, e valutare il loro livello di rischio conformemente a quanto previsto dall’AI Act.

In altri termini, devono determinare se i sistemi rientrano in una di quelle anzidette quattro categorie di rischio e cioè: inaccettabile, alto, elevato o limitato. Nel primo caso, è assolutamente vietato come visto, pensiamo a quei sistemi che, per ipotesi, utilizzano il punteggio di credito sociale, tanto per citarne uno. Mentre i sistemi ad alto rischio sono soggetti a requisiti rigorosi, come la valutazione della conformità e la supervisione umana.

In secondo luogo, le Organizzazioni sono tenute a implementare misure di mitigazione del rischio. Detto altrimenti, queste devono implementare misure volte a mitigare i rischi identificati. In pratica, mettere in atto misure tecniche e organizzative, come (banalmente) la formazione dei dipendenti, la documentazione dei processi e l’implementazione di test di sicurezza.

In terzo luogo, devono adottare procedure di governance. Si tratta di un aspetto di fondamentale importanza dal momento che le organizzazioni dovranno mettere in atto tutta una serie di procedure di governance per la gestione dei rischi associati all’intelligenza artificiale, con quanto per conseguenza, pensando ad esempio alla istituzione di un comitato di etica dell’intelligenza artificiale e non di meno allo sviluppo di una strategia di AI.

Non di meno dovranno le organizzazioni documentare la conformità all’AI Act, includendo come vedremo ad esempio la conservazione di registri dei sistemi di intelligenza artificiale, delle valutazioni del rischio e delle misure di mitigazione del rischio.

Da ultimo ma non ultimo, le organizzazioni saranno chiamate a collaborare con l’Autorità di controllo individuata nonché competente a garantire la conformità all’AI Act. Sul fronte italiano sappiano che la partita è ancora viva e aperta.

Valutazione dei rischi dei sistemi AI

La valutazione dei rischi dei sistemi di AI è un processo assolutamente fondamentale, atto a garantire che detti sistemi siano sviluppati e utilizzati in modo sicuro, etico e responsabile. SI tratta di un “processo” che aiuta a identificare e comprendere i potenziali rischi associati ai sistemi di AI, in modo da (poter) adottare misure per mitigarli.

Come possiamo intuire, esistono diversi approcci alla valutazione dei rischi dei sistemi di AI. Un approccio comune consiste nell’utilizzare una metodologia di valutazione del rischio basata su standard consolidati, come la ISO/IEC 31010 o la famiglia delle ISO/IEC 27001.

Non solo, un altro approccio comune risiede nell’utilizzare un approccio specifico per l’AI. A proposito, svariati sono i framework sviluppati ad hoc per la valutazione dei rischi dei sistemi di AI, dal NIST AI Risk Management Framework ovvero il Microsoft AI Risk Assessment Framework, cui si rinvia, per completezza.

Ciò posto, indipendentemente dall’approccio utilizzato, la valutazione dei rischi dei sistemi di AI dovrebbe includere almeno questi passaggi:

  • identificare i sistemi di AI da valutare;
  • descrivere i sistemi di AI ivi comprese le sue funzionalità, i dati utilizzati e gli scopi previsti;
  • identificare i rischi potenziali associati ai sistemi di AI
  • valutare i rischi, dopo aver identificato quelli cd potenziali, occorre valutarli in termini di probabilità e di impatto;
  • trattare i rischi poiché ogni rischio identificato, va sempre e comunque mitigato;
  • documentare la Valutazione dei rischi, includendo la descrizione dei sistemi di AI dopo che questi sono stati valutati, e quindi identificati i rischi, valutati anche alla luce dei cit. piani di mitigazione.

Peraltro, oltre al contesto della progettazione e dello sviluppo, i deployer “pubblici” – nonché quelli che adottano sistemi di IA nel contesto dell’affidabilità creditizia o dell’assicurazione sulla vita, prima di adottare o implementare un sistema di AI ad alto rischio, devono sempre e comunque effettuare, ai sensi dell’art. 27, una valutazione di impatto sui diritti fondamentali delle persone coinvolte, che contempli ambiti soggettivi di applicazione, rischi specifici, misure di mitigazione e sorveglianza umana e finanche sistemi di reclamo.

Da ultimo, si tenga presente che la valutazione dei rischi dei sistemi AI è un processo costante e continuo, a garanzia non di meno dell’attualità dell’intero impianto.

Implementazione di misure di mitigazione del rischio

Anche l’AI Act fornisce una chiara guida su quali strumenti – o meglio, appunto, “processi” (nel vero senso di approccio dinamico e continuo) siano da adottare. Si tratta di misure obbligatorie per i sistemi ad alto rischio ma in verità, come già osservato dalla Commissione nella relazione di accompagnamento alla sua proposta, sono misure proprie di una buona ed efficiente gestione di impresa.

L’art. 9 prevede in primis per i sistemi di AI ad alto rischio l’implementazione di un sistema di gestione del rischio, inteso come “un processo iterativo continuo pianificato ed eseguito nel corso dell’intero ciclo di vita di un sistema di AI ad alto rischio, che richiede un riesame e un aggiornamento costanti e sistematici”. In sintesi, si deve implementare un sistema, integrato nelle attività di cui al punto che precede, il quale permetta di valutare sia i rischi connessi con la finalità pensata per il sistema, che con eventuali usi impropri dello stesso, in modo che i rischi residui appaiano “accettabili”. Per questo, prima della immissione sul mercato i sistemi devono essere sottoposti a “prove” eseguite “in un qualsiasi momento dell’intero processo di sviluppo […] ed effettuate sulla base di metriche e soglie probabilistiche […] e adeguate alla finalità prevista perseguita dal sistema di AI ad alto rischio” (art. 9, paragrafo 8).

Saranno da implementare processi “by design” che muovono dal momento della progettazione e no si fermano nemmeno alla messa sul mercato, implementando anche un sistema che consenta la tracciatura della sua attività (log) e che permetta sempre la presenza di una sorveglianza umana. Così l’art. 14 prevede che “I sistemi di IA ad alto rischio sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso”, quale misura di mitigazione che dovrà essere proporzionata al rischio e strutturata in modo da fornire al sorvegliante – nei diversi scenari – il grado necessario di informazione e consapevolezza.

Altra misura essenziale di mitigazione è la capacità di creare sistemi resilienti e robusti (ex art. 15), in modo da poter reagire al meglio rispetto a errori, guasti o incongruenze. Tali misure, tecniche e organizzative, implementabili anche mediante soluzioni cd di ridondanza, che possono includere piani di backup o fail-safe, devono essere in grado anche – in caso di sistemi ad apprendimento continuo, di eliminare o ridurre il più possibile il rischio di output potenzialmente distorti che influenzano gli input per operazioni future (feedback loops, ossia “circuiti di feedback”).

L’art. 10 prevede inoltre un ulteriore elemento essenziale per una corretta mitigazione dei rischi vale a dire “l’adozione di un sistema di qualità che garantisca l’opportuna governance dei set di dati utilizzati per addestramento, convalida e prova”.

L’AI, una questione di dati

Tutta l’AI, a ben guardare, è una questione di “dati”: da quelli elaborati, analizzati, macinati per imparare e assunti per operare. Di qui, ben si comprende dunque come l’adozione di un corretto sistema di governance dei dati costituisce, prima ancora che un obbligo, una necessità di efficacia ed efficienza di qualsiasi fornitori di un sistema di AI, ad alto o rischio o meno. Laddove per “governance”, vogliamo intendere non solo il (mero) rispetto del GDPR, ma anche, se non soprattutto, la “qualità” dei dati e loro integrità. Nessun sistema di AI, infatti, per quanto evoluto e potente possa essere, potrà essere valido, se nutrito con dati non corretti, non adatti, “inquinati”.

Nondimeno, per i fornitori di sistemi ad alto rischio, tale governance richiede in primo luogo di essere tracciata e documentata secondo prima di tutto, standard di qualità, previsti dai paragrafi 2-5 dell’art. 10, per i “set di dati” utilizzati ai fini di addestramento, convalida e prova. Ciò implica pertanto che i dati dovranno essere gestiti in un modo tale che sia garantita l’aderenza alle finalità de sistema, in termini progettuali, tenendo in debito conto l’origine dei dati raccolti e la loro iniziale finalità se personali, incluse valutazioni sulla loro adeguatezza e aggiornamento. Tali valutazioni dovranno poi essere altresì idonee a ipotizzare possibili ed eventuali distorsioni (bias) che tali set potrebbero generare, mettendo conseguentemente in campo misure atte a prevenirle e attenuarle.

In definitiva, i dati in gioco non dovranno essere né tanti nè pochi, né troppi, ma quelli necessari cioè “giusti” in ordine alle finalità progettualmente perseguite dal sistema di AI in questione.

Ecco perché sono quanto mai importanti competenze trasversali e interconnesse, laddove in primis vanno prese misure organizzative interne alle Organizzazioni, ivi creando dei team dedicati e decisamente competenti.

In ultimo, ma come si suol dire, non per importanza, è necessario istituire un sistema di gestione della qualità in grado, come rammenta l’art. 17, che garantisca nel suo complesso (per così dire, abbracciando tutto quanto già sopra percorso e documentandolo) l’aderenza dei processi e dei sistemi alla normativa qui in oggetto, sotto il profilo normativo, tecnico, procedurale e di prova.

Documentazione e conformità

Ancora qualche battuta in merito a cosa le organizzazioni devono fare per essere conformi/compliant all’AI Act, e qui la documentazione diventa un aspetto fondamentale, intendendosi tuttavia non un modus operandi che si porta dietro quell’approccio formale che già e con il GDPR si è cercato e che si continua a scardinare nello spirito del legislatore sovranazionale, quanto piuttosto la realizzazione di un apparato documentale omogeneo e ben strutturato che tenga conto del contesto e della relativa complessità aziendale di volta in volta riscontrata, a comprova non di un “ammasso di carte”, ma dell’evidenza di come le organizzazioni gestiscono, organizzano e rispettano l’intero impianto normativo, e quindi la compliance che è integrata in quelle più virtuose, in ottica di accountability.

Ne discende che le organizzazioni, su questa scia, devono predisporre tutta una serie di documenti e adottare varie misure (tecniche e organizzative) in termini di conformità.

Quindi, per quanto concerne la documentazione, sarà importante che l’organizzazione predisponga:

  • una valutazione del rischio, dovendo documentarla con riferimento a tutti i sistemi di intelligenza artificiale utilizzati o sviluppati, previa identificazione dei potenziali rischi associati ai sistemi di AI e le relative misure adottate per mitigarli;
  • una dichiarazione scritta di conformità con riferimento ai sistemi di AI ad alto rischio, dovendo attestare che il sistema stesso sia conforme ai requisiti dell’AI Act;
  • un manuale utente, grazie al quale le organizzazioni siano in grado di dare e dimostrare come sono sviluppati e utilizzati tutti i sistemi di AI adoperati, in modo sicuro e responsabile;
  • la registrazione dei sistemi di AI, dovendo registrare tutti quelli ad alto rischio presso il database centrale della UE certificandone la conformità all’AI Act;
  • la documentazione delle misure di mitigazione del rischio in virtù della quale le Organizzazioni sono tenute a documentare le misure adottate ai fini della mitigazione dei rischi identificati nella valutazione stessa; nonché delle attività di monitoraggio e auditing onde garantire una costante, corretta e adeguata conformità all’AI Act.

Compliance (conformità come atteggiamento mentale dinamico non certo “acquiescenza” con animus inerte o passivo),che richiede quindi una serie di attività come: adottare un sistema di gestione della qualità, implementare misure di sicurezza per proteggere i sistemi di AI da accessi non autorizzati, alterazioni o distruzioni; formare i dipendenti/collaboratori, redendoli decisamente più consapevoli e responsabili su come utilizzare i sistemi di AI messi a disposizione; istituire un responsabile dell’AI nominato quale soggetto Responsabile della conformità aziendale con riferimento all’AI Act. Da ultimo ma non ultimo, cooperare con le Autorità di controllo il più possibile, in trasparenza e collaborazione proficua nell’interesse di tutte le parti in gioco.

Sanzioni per la non conformità

L’AI Act stabilisce delle soglie di sanzioni che devono essere prese in considerazione dagli Stati, che le applicheranno, prevedendo scaglioni di “…fino a” e in particolare:

  • 35 milioni di euro o al 7% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente (a seconda di quale sia il valore più alto) per le violazioni relative alle pratiche vietate o alla non conformità ai requisiti sui dati;
  • 15 milioni di euro o al 3% del fatturato totale annuo a livello mondiale dell’esercizio finanziario precedente per la mancata osservanza di uno qualsiasi degli altri requisiti o obblighi del regolamento, compresa la violazione delle norme sui modelli di AI per uso generale;
  • 7,5 milioni di euro o all’1,5% del fatturato mondiale annuo totale dell’esercizio precedente per la fornitura di informazioni inesatte, incomplete o fuorvianti agli organismi notificati e alle Autorità nazionali competenti in risposta a una richiesta.

Per ogni infrazione, la soglia dovrebbe seguire questo criterio: per le PMI, il minore dei due importi, a differenza che per le altre aziende utilizzando invece il (criterio del) maggiore importo. Staremo a vedere.

Esempi di sanzioni

Alla luce delle sanzioni previste dall’AI Act poc’anzi riassunte per punti, proviamo ora a ipotizzare alcuni esempi di sanzioni, per quanto solo l’applicazione pratica e ben più avanti, potrebbe costituire un valido ausilio in questo senso. Tuttavia, con uno sforzo di immaginazione, possiamo iniziare già ad immaginare alcune ipotesi, a titolo meramente ipotetico, oggi come oggi, effort financo prematuro in considerazione dei tempi di adeguamento di cui abbiamo accennato in principio.

COSAFINO A QUANTOPERCHÉ
Violazioni più graviFino a 35 milioni di euro o il 7% del fatturato annuo globale dell’impresa, a seconda di quale sia il valore più altosistemi di punteggio di credito sociale; non conformità ai requisiti sui dati per i sistemi di AI ad alto rischio (ad esempio, mancanza di misure per garantire la qualità e la sicurezza dei dati)
Fino a 15 milioni di euro o il 3% del fatturato annuo globale dell’impresamancata osservanza di altri obblighi e requisiti previsti dall’AI Act (ad esempio, requisiti di trasparenza, obblighi di documentazione); informazioni false o ingannevoli alle Autorità di controllo
Fino a 10 milioni di euro o il 2% del fatturato annuo globale dell’impresaMancata adozione di misure adeguate volte a garantire la conformità dell’AI Act da parte di fornitori o subappaltatori

Dette sanzioni rappresentano, oggi più che mai sulla carta e quindi in teoria, solo dei “massimali”. In concreto, tuttavia, fin da ora possiamo dire che l’importo effettivo della sanzione inflitta dipenderà molto anche da tutta una serie di altri fattori, tra cui “la gravità della violazione, la storia pregressa dell’impresa e le misure adottate per rimediare alla violazione”.

Ancora e per completezza, corre d’obbligo precisare che, stando alla lettera del testo definitivo in bozza, oltre alle sanzioni pecuniarie, l’AI Act prevede anche altre misure di esecuzione, come:

  • gli ordini di cessazione e desistenza, per cui le Autorità di controllo possono ordinare alle Organizzazioni di interrompere le attività non conformi;
  • il richiamo/divieto di immissione sul mercato, in forza del quale le Autorità di controllo possono richiamare o vietare l’immissione sul mercato di prodotti non conformi;
  • la pubblicazione (a tutti) delle sanzioni, con quanto per conseguenza da un lato l’accessorietà, dall’altro — pensiamo— ai potenziali danni non di meno all’immagine (incalcolabili) che una (inflazione di) sanzione può determinare.

Risorse utili

Da ultimo, segnaliamo quelle che possono essere considerate le cd “risorse utili”, specificando le fonti ove poter attingere informazioni ufficiali sull’AI Act anche per (poter) seguire gli ulteriori sviluppi in atto.

Sito web ufficiale dell’AI Act e guide e documenti dell’UE (link)

La pagina web ufficiale evidentemente è quella del Consiglio di Europa. Mentre per le guide e i documenti, altrettanto ufficiali, segnaliamo il link che segue: https://artificialintelligenceact.eu/the-act/. Si tratta di un sito web che fornisce “sviluppi e analisi aggiornati della proposta di legge europea sull’intelligenza artificiale denominata Legge sull’intelligenza artificiale”. Si tratta di un sito gestito dal Future of Life Institute – FLI, quale “organizzazione no-profit indipendente che lavora per ridurre i rischi estremi su larga scala derivanti dalle tecnologie trasformative”. Lo scopo è quello di “puntare a che lo sviluppo e l’utilizzo futuri di queste tecnologie siano vantaggiosi per tutti”, come esso stesso si definisce.

Entrata in vigore e conclusioni

L’entrata in vigore è attesa a brevissimo, entro l’estate addirittura. L’ufficialità (del testo) dell’AI Act, sarà data a stretto rigore solo dalla pubblicazione in GU europea, per quanto il Parlamento europeo abbia già annunciato, tramite un comunicato stampa ufficiale, di aver reso definitivo il testo dell’AI Act, il 13 marzo e poi il 21 maggio 2024. Dalla sua pubblicazione, poi e come di consueto, partirà un termine di stand still funzionale a permettere l’adeguamento di Organizzazioni (enti e imprese) alla sua trama normativa, secondo uno scadenziario diluito nel tempo: 6 mesi per “eliminare” i sistemi di AI vietati, 12 per la creazione del sistema di governance, 24 per i sistemi ad alto rischio di cui all’allegato III, addirittura 36 per i sistemi ad alto rischio integrati nel prodotti soggetti a certificazione come da allegato I (il tutto, naturalmente, presumendo che il testo definitivo confermi quanto acquisito in quello ufficioso ovvero “informalmente definitivo”).

Giunte al termine, pur consapevoli che le considerazioni potevano essere anche molte di più, trattando ad esempio di tutta la parte relativa al sostegno all’innovazione, per non parlare, poi, a chi non si applica senza tuttavia limitarsi a meri ragionamenti in termini di esclusione.

In conclusione, dunque, la lunga corsa all’AI Act delinea il suo percorso nell’insieme faticoso, e non solo per la complessità della materia, ma anche per i tanti interessi in gioco, spesso contrapposti. Se inizialmente nel 2021 se non anche già nel 2020, la UE aveva optato per una visione di moral suasion, ricorderemo il Libro Bianco sull’intelligenza artificiale e un approccio basato sull’etica, poco dopo ci si è resi subito conto che non era la vision corretta, quella efficace utile all’intero impianto. Da lì, la virata; e nel 2023 il Parlamento contro-propone i suoi 450 e più emendamenti e solo a dicembre scorso, dopo un estenuante trilogo tra Commissione, Consiglio e Parlamento, è stato raggiunto l’accordo politico e da lì, grazie al dietro le quinte dei tecnici ecco oggi un testo “finale/ufficioso” tutto da studiare e capire a fondo nella sua porta unica, rappresentando la prima legge al mondo sull’intelligenza artificiale.

Articoli correlati

Articolo 1 di 4