L’Artificial Intelligence Act (AI Act) è entrato in vigore il 1° agosto 2024 e contempla un’applicazione graduale che si dipana, a tappe, fino al 2030. Gli aspetti focali della legge, tuttavia, sono già operativi dal mese di febbraio del 205 e altri – meno urgenti ma non per forza di cose meno importanti – dovranno essere rispettati a partire dal 2 agosto del 2026, ossia 24 mesi dopo l’adozione dello stesso AI Act.
Tra questi aspetti, l’accento cade sull’obbligo di rispettare tutti i requisiti relativi ai sistemi AI ad alto rischio, sull’obbligo di trasparenza, sui sistemi di valutazione delle conformità e sulla necessità di allestire documentazione tecnica aggiornata ed esaustiva.
Materie enormi che possono mettere in difficoltà le organizzazioni e attorno alle quali vige una certa fumosità, dettata in parte dalla tanta documentazione che – a tratti almeno – offre visioni discordanti o comunque non sempre unanimi.
Non è un caso che, a giugno del 2025, la Commissione europea sia tornata sull’argomento cercando di fare maggiore luce su alcuni aspetti.
Da qui la necessità di fare un po’ di chiarezza, elencando i punti cruciali evinti esclusivamente dai documenti e dai corollari forniti dall’Unione europea i quali, anche a costo di non essere sempre chiari e definiti, offrono i fondamentali inalienabili al di là di interpretazioni terze.
Indice degli argomenti:
L’AI Act europeo in breve
L’AI Act (qui il link al compendio normativo) si applica a chi progetta, sviluppa o usa sistemi AI all’interno dell’Unione europea e ha afflato extraterritoriale. Infatti, si applica anche ai sistemi AI al di fuori dell’Ue se questi generano dati o hanno un impatto sulle persone o le organizzazioni degli Stati membri.
Ciò significa che devono assoggettarsi al quadro normativo:
- provider: organizzazioni che progettano o sviluppano sistemi AI, chiamate a rispettare gli obblighi sulla conformità, sulla valutazione del rischio e sulla documentazione tecnica
- deployer: organizzazioni che usano sistemi AI terzi
- importatori e distributori: coloro che rendono disponibili sistemi AI sul mercato europeo.
L’obiettivo dell’AI Act è la classificazione e la regolamentazione delle applicazioni AI in base al loro potenziale di rischio. Una forma di protezione dei cittadini che fa leva sulla suddivisione dei sistemi AI in tre categorie:
- pratiche vietate
- sistemi ad alto rischio
- altri sistemi
Va sottolineato che l’AI Act europeo è un buon testo, ancorché perfettibile. Ha attirato critiche di vario ordine, alcune più pertinenti di altre, ma resta il riferimento normativo a cui le organizzazioni devono assoggettarsi, pena ammende fino a 35 milioni di euro o al 7% del fatturato globale annuo.
AI Act, il concetto di rischio e le pratiche vietate
Poiché l’AI Act è incentrato sul concetto di rischio, è utile cominciare dal definirlo secondo l’interpretazione del quadro normativo.
I sistemi ad alto rischio sono quelli che possono minacciare la sicurezza, la salute e i diritti fondamentali delle persone. Prima di essere resi disponibili devono sottostare a una valutazione di conformità.
Le pratiche vietate sono invece quelle che fanno leva sulle AI per manipolare o sfruttare debolezze e vulnerabilità delle persone. Rientrano in questa ampia categoria, per esempio, i sistemi AI che possono provocare danni al corpo o alla psiche ma anche quelli dediti al social scoring o all’identificazione biometrica negli spazi pubblici. Quest’ultima – salvo casi eccezionali e stringenti – è impedita anche alle forze dell’ordine.
Come classificare i sistemi AI secondo l’AI Act
La classificazione dei sistemi AI non è un esercizio tecnico ma un imperativo strategico a cui le organizzazioni devono assoggettarsi per accedere al mercato.
È, in sintesi, parte integrante dei requisiti del core business, una mappatura inalienabile senza la quale le organizzazioni non possono operare sul mercato.
Un framework basato sul rischio
L’approccio dell’AI Act è di tipo proporzionale. In tale senso, gli obblighi di legge variano a seconda dell’impatto potenziale che un sistema AI può avere sulla salute, sulla sicurezza e sui diritti fondamentali dei cittadini e delle organizzazioni europee.
La legge individua quattro categorie di rischio, ovvero:
- Rischio inaccettabile. Si applica ai sistemi che sono considerati forieri di minacce e, come tali, sono banditi e devono essere ritirati dal mercato. Includono il social scoring, la manipolazione e l’identificazione biometrica remota in tempo reale (con alcune specifiche deroghe concesse quasi esclusivamente alle forze dell’ordine)
- Rischio alto. Sistemi che devono sottostare a requisiti stringenti prima di potere essere posizionati sul mercato. Fanno parte di questa categoria, per esempio, i dispositivi medici. In generale, è più puntuale parlare degli ambiti in cui questi sistemi vengono usati, descritti nell’allegato III all’AI Act (istruzione, servizi pubblici essenziali, infrastrutture critiche, sanità…)
- Rischio limitato. Sistemi che aprono le porte a rischi di manipolazione o impersonificazione (rientrano in questa categoria le chatbot e i tool che consentono di creare deepfake) che devono sottostare a obblighi di trasparenza. In altri termini, chi ne usufruisce deve essere informato della natura artificiale del contenuto
- Rischio minimo. Rientrano in questa categoria la maggioranza dei tool AI, per esempio quelli per l’individuazione dello spam o usati nei videogame. Non devono sottostare a obblighi normativi al di fuori di quelli già vigenti nei settori di competenza, ma l’AI Act incoraggia l’adozione di codici di condotta.

I criteri di identificazione dei sistemi ad alto rischio
Alla classificazione di un sistema ad alto rischio concorrono sostanzialmente due criteri, ossia l’integrazione in prodotti regolamentati e i campi di applicazione, aspetti coperti e delimitati nell’Allegato II e nel già citato Allegato III all’AI Act.
Per rientrare nella categoria dei sistemi ad alto rischio è sufficiente soddisfare uno dei due requisiti.
Gli allegati II e III
Sono il nocciolo della logica della classificazione dei sistemi AI. L’Allegato II richiama l’articolo 5 dell’AI Act ed elenca ambiti e ragioni per le quali è vietato ciò che nell’AI Act è chiamato risk assessment individuale.
In breve, è la valutazione fatta da un sistema AI tesa a comprendere o prevedere se un singolo individuo commetterà un reato.
La discriminante è “singolo individuo”: non riguarda gruppi, zone geografiche o andamenti statistici.
L’AI Act mette al bando tali attività perché pericolose sotto il profilo della discriminazione, del profiling abusante e anche sotto il profilo delle false accuse in cui queste pratiche possono sfociare.
Ci siamo soffermati su questo aspetto, anche se periferico, perché propedeutico allo spirito dell’Allegato II (e quindi all’AI Act) che vieta la discriminazione e salvaguarda la protezione dei dati e le libertà fondamentali (tra queste anche la presunzione di innocenza).
Tornando al cuore dell’Allegato II, questo si concentra:
- sull’elencare le categorie di reati gravi dell’Ue rilevanti per il divieto di profilazione predittiva individuale
- sul terrorismo, sui traffici illeciti, sui mercimoni e sulla criminalità organizzata e, di rimando
- sul riciclaggio, la corruzione, le frodi, il cyber crimine e i reati ambientali
L’Allegato III si concentra sui casi in cui un sistema AI è da considerare automaticamente ad alto rischio e, nel dettaglio, se:
- Elenca le categorie di sistemi di AI che comportano rischi significativi per sicurezza e diritti fondamentali
- Include AI per identificazione biometrica, gestione infrastrutture critiche, istruzione, occupazione e servizi pubblici
- Comprende sistemi usati in ambito creditizio, migrazione, giustizia e applicazione della legge
- L’inclusione nell’allegato comporta obblighi stringenti: gestione del rischio, qualità dei dati, trasparenza, supervisione umana.
Ogni categoria è collegata a un settore regolato da norme Ue esistenti. Ovvero, un sistema AI è identificato ad alto rischio se è parte di un prodotto coperto dall’Allegato II che, di fatto, è l’elenco della legislazione di armonizzazione dell’Ue relativa a prodotti industriali e di consumo.
In parole più semplici, l’identificazione dei sistemi di alto rischio riguarda le AI usate in prodotti già regolamentati come, per esempio, macchinari (Direttiva 2006/42/CE), dispositivi medici (Regolamenti Ue 2017/745 e 2017/746) o veicoli a motore (Regolamento 2018/858).
Allo stesso modo, se un sistema AI ricade nei campi di applicazione dell’Allegato III, è classificabile ad alto rischio. Tra questi campi figurano le applicazioni per le infrastrutture critiche, il monitoraggio delle persone, i sistemi AI per l’assunzione di personale o per la valutazione del merito creditizio.
C’è una clausola di esclusione che crea un po’ di confusione. Secondo tale clausola, un sistema che rientra nei campi coperti dall’Allegato III può essere declassato se svolge compiti delimitati, migliora il risultato conseguibile dall’uomo oppure non influisce in modo sensibile nei processi decisionali nei quali è impiegato.
Una clausola dai confini non nettamente definiti e, per delinearli meglio, è utile sottolineare che se un sistema AI prevede la profilazione di persone fisiche è sempre da considerare ad alto rischio e nessuna clausola di esclusione può essere applicata.
I modelli AI per scopi generali (Gpai)
L’AI Act introduce norme per i modelli AI per scopi generali, i Gpai. Di fatto, la Commissione europea ha indicato quali criteri vanno usati per stabilire se un algoritmo rientra in questa categoria.
Il limite è rappresentato dalle risorse computazionali utilizzate per addestrare il modello AI (come, per esempio, i Large language model). Se il modello è stato addestrato con risorse superiori a 1025 FLOP ed è in grado di generare contenuti a partire da un prompt è un Gpai.
Anche in questo caso è una regola non nitidissima. Infatti, secondo l’AI Act, se il modello AI non è in grado di svolgere più compiti, subentrano altre logiche. Per esempio, se un modello è deputato esclusivamente a trascrivere audio in testo, non è Gpai anche se il criterio dei 1025 Flop viene superato.
Il protocollo per la classificazione strategica
La compliance deve essere rispettata attraverso un processo di valutazione in cinque fasi che le organizzazioni devono implementare al proprio interno e che, di fatto, riassume quanto scritto fino a qui. Nello specifico:
- L’organizzazione deve verificare se l’applicazione AI rientra nelle pratiche vietate dall’Articolo 5 dell’AI Act (manipolazione, social scoring, qui l’elenco completo come da regolamento)
- Determinare se l’AI è componente di sicurezza di un prodotto regolamentato dall’Allegato III
- L’organizzazione deve valutare se il sistema interagisce con operatori umani o genera contenuti per attivare gli obblighi di trasparenza dell’AI Act
- Valutare se il modello AI supera le soglie Gpai che, di fatto, sono soglie di calcolo del rischio sistemico
- Registrare la metodologia di valutazione, le prove a supporto e la decisione di classificazione finale.
Nel caso di incertezza, ossia se un’organizzazione non sa in quale categoria rientra il sistema AI, questo va valutato nella classificazione di rischio superiore al fine di limitare le responsabilità legali.
Gli obblighi per i sistemi ad alto rischio
Se un sistema AI viene classificato ad alto rischio, il produttore o il fornitore devono sganciare delle misure specifiche, ossia:
- Stabilire un sistema per la gestione del rischio lungo tutto il ciclo di vita del sistema AI
- Garantire la qualità dei dati usati per l’addestramento
- Redigere documentazione tecnica dettagliata in favore delle autorità competenti
- Garantire la sorveglianza di operatori umani e la registrazione degli eventi (logging)
- Ottenere la marcatura CE mediante la valutazione della conformità prima che il sistema AI venga immesso sul mercato, così come descritto dall’articolo 48 dell’AI Act.
Le norme e le regole che rientrano nel perimetro dell’AI Act si rifanno a principi di trasparenza, accuratezza e robustezza.
Cosa significa implementare trasparenza, accuratezza e robustezza
L’AI Act punta direttamente ad AI governabili. Per questo motivo la trasparenza, l’accuratezza e la robustezza diventano un tutt’uno in un contesto nel quale l’Europa vuole rendere i sistemi AI controllabili prima, durante e dopo il loro utilizzo.
La trasparenza consente di sapere quale sistema AI si sta usando e quali sono i suoi limiti, l’accuratezza consente di evitare (o di ridurre al minimo) il rischio che un sistema AI giunga a decisioni sistematicamente sbagliate e, infine, la robustezza garantisce che il sistema non diventi incontrollabile anche qualora intervenissero ingerenze esterne.
Riducendo all’essenziale la forma mentis dell’Europa nei confronti dei sistemi AI, si può dire che il loro buon funzionamento non è sufficiente per accedere al mercato, se non sono spiegabili, misurabili e resilienti.
L’innovazione è così subordinata alle responsabilità tecnica e giuridica lungo l’intero ciclo di vita di un sistema AI.
Trasparenza
Per l’AI Act, la trasparenza è strettamente legata alla tracciabilità di un sistema AI.
Infatti, la necessità di consentire una esplicita tracciabilità dei processi e dei sistemi AI consente una quasi piena spiegabilità, utile per dare informazioni su cosa è in grado di fare un’AI, quali limiti ne circoscrivono le capacità e a quali rischi – anche soltanto potenziali – è esposto chi ne fa uso o chi ne subisce gli effetti.
Il medesimo principio di trasparenza esorta a rendere edotti gli utenti affinché sappiano quando stanno interagendo con un sistema AI e non con un operatore umano.
Tutto ciò, per le organizzazioni, si traduce nella necessità di:
- allestire documentazione tecnica accessibile e leggibile
- registrare le attività del sistema AI per verificare (o ricostruire) ciò che accade durante il suo funzionamento (attività di logging)
- essere esplicite (e quindi trasparenti) sul funzionamento di un sistema AI e sui diritti delle persone che ne sono coinvolte a diverso titolo, oltre ad adottare chiarezza nei confronti delle autorità di vigilanza e dei supervisori in genere.
Va da sé che il concetto di trasparenza è la superficie visibile di un substrato più diramato, ossia l’accuratezza.
Accuratezza
Secondo l’ articolo 15 dell’AI Act, i sistemi AI ad alto rischio devono raggiungere un adeguato livello di accuratezza rispetto alla loro finalità e devono mantenerlo lungo tutto il loro ciclo di vita.
Le organizzazioni devono quindi definire e dichiarare delle metriche per le performance quantitative. Per esempio, devono dichiarare il numero massimo di errori accettabili o lo spettro di approssimazione dei risultati forniti dal sistema AI.
Ciò comporta la necessità di allestire procedure di test e di verifica per misurare le prestazioni del sistema prima e dopo la messa in opera.
In altre parole, chi sviluppa un sistema AI deve essere in grado di dimostrare con benchmark e dati misurabili che tale sistema è sufficientemente preciso per lo scopo a cui è adibito.
Robustezza
Robustezza e cyber security sono termini che vanno a braccetto. Il concetto normativo, infatti, impone che un sistema AI sia in grado di:
- Comportarsi come previsto anche in presenza di errori o di perturbazioni
- Prevenire, mitigare e recuperare episodi di manipolazione o attacchi informatici (quali, per esempio, il data poisoning o gli adversarial attack).
Tutto ciò comporta soluzioni organizzative e tecniche tese a ridurre i rischi. Il riferimento, in questo caso, va a opportune procedure di fail-safe e monitoraggio continuo ma anche ad adeguate protezioni contro attacchi esterni (e interni) ai dati, ai modelli e agli algoritmi.
L’importanza delle due diligence sui fornitori (modelli di terze parti)
La gestione dei rischi, della trasparenza e della sicurezza dei sistemi AI si stende anche ai partner coinvolti nella loro realizzazione e nel loro funzionamento.
L’AI Act riserva un ruolo particolare alla due diligence sui fornitori perché parte integrante della catena di valore di un sistema AI. L’idea di fondo è semplice: per contribuire alla piena conformità di un sistema AI occorre la collaborazione di tutte le parti coinvolte. Ciò spiega anche l’interesse dell’Ue nei confronti di provider, deployer e distributori, chiamati a verificare la qualità e l’attendibilità dei rispettivi fornitori di componenti AI critici.
Nell’AI Act, la due diligence è disciplinata dal capitolo 2 (misure tecniche), dall’articolo 15 (gestione del rischio), dall’articolo 28 (obblighi per i provider di sistemi ad alto rischio) e dal già citato articolo 13 (trasparenza). Per estensione include anche la catena di valore definita all’articolo 3.
Una lettura più particolareggiata sollecita altri articoli. Per esempio, relativamente ai provider di sistemi ad alto rischio, l’articolo 13 impone la valutazione e la mitigazione di rischi residui, includendo la verifica della qualità dei dati forniti da terze parti e appellandosi così alla data governance, disciplinata dall’articolo 10 dell’AI Act.
Allo stesso modo, i deployer devono condurre due diligence sui fornitori di modelli AI “general purpose” (i Gpai di cui abbiamo scritto sopra), entrando così nei meandri del capitolo 5. Sono chiamati a monitorare le performance dei modelli e a monitorare gli incidenti e – più in generale – la conformità alla cybersecurity (articolo 55) stipulando contratti che prevedano audit e reporting regolari (articolo 56).
La catena di valore e le responsabilità condivise sono materie a tratti intricate. In questi due ambiti, l’articolo 28 impone ai provider di inserire nella documentazione tecnica i dettagli sui sub-contrattisti e i fornitori di hardware e software AI.
Importatori e distributori di sistemi AI hanno la responsabilità di verificare i certificati CE e le dichiarazioni di conformità dei fornitori.
Sono materie sfaccettate proprio perché devono inglobare le tante declinazioni possibili tipiche di qualsivoglia sistema AI.
Per sommi capi, tenendo conto delle norme principali, si può stilare un processo operativo della due diligence evidenziando questi aspetti:
- La mappatura dei fornitori: le terze parti della catena devono essere identificate. In questo quadro “terze parti” sono tutte le organizzazioni che forniscono dati, modelli, API e quanto necessario all’esistenza del sistema AI
- La valutazione dei rischi: analisi dei rischi, della probabilità che si materializzino e degli impatti potenziali che possono avere (quindi, ancora una volta, robustezza anche dal punto di vista della cybersecurity)
- Le misure di mitigazione: contratti che prevedano audit periodici e test indipendenti
- Il monitoraggio e il reporting: oltre al registro degli incidenti (trattato nell’articolo 73 dell’AI Act), sono imposte una dichiarazione annuale e la piena tracciabilità post-market, come da articolo 61. A questa voce dedichiamo un breve approfondimento qui sotto
- La remediation: riguarda l’aggiornamento dei modelli e le misure di cessazione dei rapporti con anelli della catena (articolo 16).
La tracciabilità post-market di un sistema AI, secondo l’AI Act, è un obbligo a cui si devono assoggettare i fornitori di sistemi ad alto rischio.
Riguarda la registrazione automatica e la conservazione dei log, affinché sia possibile il monitoraggio continuo utile a identificare eventuali rischi. Tutto ciò rimanda alla natura stessa dell’AI Act, nato per garantire requisiti di sicurezza, affidabilità e rispetto dei diritti fondamentali.
L’intersezione con altre norme
I pilastri regolatori coinvolti sono quattro. Oltre all’AI Act, subentrano o possono subentrare il GDPR, la CSDDD e la NIS2.
Questo congiungersi di differenti normative tende a creare disordine ma, se ridotto ai minimi termini, appare molto più chiara la sua ragione d’essere.
Il Regolamento sulla protezione dei dati personali (il GDPR) impone regole per il trattamento dei dati personali, includendo anche quelli usati per le AI. Il GDPR non viene in nessun modo sostituito dall’AI Act che, tra l’altro, esige che venga applicata ogni forma di diritto vigente, soprattutto in materia di protezione dei dati.
In pratica, l’AI Act copre lo sviluppo e la validazione dei sistemi AI e il GDPR – in modo contestuale – regola le modalità con le quali i dati delle persone possono essere raccolti o usati per addestrare o mettere in produzione tali sistemi.
Non si tratta di scegliere ma di allineare l’AI Act alle norme del GPDR.
C’è poi un rapporto tra l’AI Act e la Corporate Sustainability Due Diligence Directive (Direttiva 2024/1760), la CSDDD.
Va sottolineato che si tratta di una direttiva e che gli Stati membri dovranno recepirla, cosa che l’Italia non ha ancora fatto. Va altresì detto che, salvo slittamenti e rinvii, la prassi vuole che la CSDDD venga introdotta nel diritto italiano entro il 25 luglio del 2026.
La CSDDD vuole che le aziende europee con oltre mille dipendenti e una cifra d’affari annuale globale superiore ai 450 milioni di euro (e le aziende non europee con pari fatturato) svolgano una due diligence umanitaria e ambientale lungo la catena di fornitura.
Per chiarire questo aspetto è utile fare il punto della situazione:
- L’AI Act impone la gestione dei rischi che i sistemi AI possono comportare per la salute, la sicurezza e diritti fondamentali
- La CSDDD – quando sarà recepita – obbligherà a identificare e mitigare l’impatto sui diritti umani e sull’ambiente di ogni anello della catena di fornitura.
La normativa (l’AI Act) e la direttiva (la CSDDD) fondano sulla logica del rischio, ancorché partendo da presupposti diversi: la prima mira dritta al rischio tecnico dei sistemi IA, mentre la seconda valuta prettamente il rischio per l’uomo e l’ambiente.
Ciò significa che, se un’organizzazione sviluppa o distribuisce sistemi AI e usa dati globali oppure opera sul piano globale, la CSDDD imporrà di includere nei processi di due diligence anche il rischio che tali sistemi AI rappresentano, per esempio, per i lavoratori, per il diritto alla privacy o per le discriminazioni in genere.
C’è poi il legame tra l’AI Act e la Network and Information Security Directive 2 (la NIS2), ossia la direttiva europea 2022/2555 sulla cybersecurity.
L’AI Act impone parametri di robustezza, esigendo che i sistemi AI siano sicuri e resilienti alle manipolazioni o agli errori operativi. La NIS2 si concentra sulla sicurezza delle infrastrutture e dei sistemi di informazione per i servizi critici e per i fornitori digitali.
Un’intersezione che si manifesta laddove, se usato in settori critici quali la sanità, la finanza, i trasporti o l’energia, un sistema AI deve rispettare tanto l’AI Act quanto la NIS2.
Quindi, in modo schematico:
- L’AI Act impone il monitoraggio continuo dei sistemi AI e l’introduzione di misure di sicurezza robuste
- La NIS2 impone la notifica di un incidente entro 72 ore dal momento in cui un’organizzazione viene a conoscenza della criticità e il reporting completo entro 1 mese.
Per creare una suddivisione logica dei quattro pilastri regolatori, si può schematizzare:
- Il GPDR tutela l’uso di dati personali nei sistemi AI, affinché avvenga in modo legittimo, trasparente e sicuro
- L’AI Act gestisce i rischi tecnici e gli impatti sulla società facendo leva su trasparenza, robustezza e sicurezza
- La NIS2 richiama la necessità di implementare solide misure di cybersecurity per la protezione dei sistemi AI impiegati in contesti critici
- La CSDD (non ancora entrata in vigore in Italia) richiama le grandi organizzazioni a tenere conto, in fase di due diligence, dei rischi dei sistemi AI per i diritti delle persone e dell’ambiente.
Tutti questi elementi portano a una conclusione: l’AI Act non è un peso per le organizzazioni, ma un’occasione che si trasforma in un vantaggio competitivo.
Questo aspetto, al netto delle critiche e degli entusiasmi che sono caduti sull’AI Act europeo, ha dei capisaldi che vale la pena approfondire.
Adeguarsi all’AI Act non è un costo, ma un vantaggio competitivo
Ridurre l’AI Act a un fardello regolatorio coincide con una lettura poco lungimirante delle intenzioni dell’Ue.
L’AI Act ha aizzato pareri critici ma ha anche attirato a sé commenti positivi. A prescindere da tutto e osservando il regolamento con uno sguardo strategico e industriale, emergono aspetti inconfutabili, a partire dal fatto che l’Ue non chiede alle organizzazioni di rinunciare alle AI, chiede loro di renderle affidabili e governabili.
È obiettivamente impossibile ridurre l’AI Act a un mero approccio ideologico, ancorché una prima lettura disattenta del regolamento lo lasci trasparire.
Considerando però che l’AI Act consente alle organizzazioni di usare le AI al riparo da ripercussioni giuridiche e reputazionali, emergono aspetti che vanno rapportati all’innovazione non regolamentata.
Nello specifico, non è avulso dalla realtà considerare l’ipotesi secondo cui le organizzazioni, agendo al di fuori di un quadro regolatorio, potrebbero essere penalizzate nel momento in cui i sistemi AI usati causassero contenziosi tali da imporne il ritiro dal mercato – magari con leggi urgenti varate dai legislatori dei mercati in cui operano – con conseguenti danni finanziari e reputazionali.
Trasformare il rischio in quanto tale in un rischio gestito è un’occasione. E questa trasformazione non può essere possibile senza chiarezza nei processi, definizione dei ruoli e delle responsabilità.
Ottemperare al quadro normativo dell’AI Act coincide con la sopravvivenza sul mercato di un sistema AI e di ciò che questo produce.
L’imperativo non è più l’aspetto regolatorio ma ciò che da questo consegue, ovvero la fiducia.
Un sistema conforme all’AI Act infonde fiducia (termine che è rimbalzato a lungo tra gli scranni di Bruxelles) proprio perché, oltre a essere documentato e spiegabile, dimostra robustezza e sicurezza.
L’adozione delle Intelligenze artificiali è strategica per qualsiasi organizzazione pubblica e privata. Potere contare su sistemi AI sviluppati in ottemperanza all’AI Act significa essere pronti per scalare il mercato europeo e anticipare standard futuri, peraltro ampiamente preannunciati dalla Commissione europea.
Dal canto suo, l’AI Act impone requisiti che migliorano i processi aziendali. Infatti, potere contare su documentazione trasparente e chiara, sul logging e sul controllo dei dati giova in primis alle organizzazioni che sviluppano o usano sistemi AI.
Conclusione
Nell’AI Act si possono intravvedere diverse anime. Ci si può vedere la noia di un ennesimo impianto regolatorio con i costi e le lungaggini che si porta appresso, oppure si possono intravvedere delle leve che favoriscono imprese e cittadini quali, per esempio, la riduzione del rischio dei sistemi AI, l’accelerazione dell’adozione di tali sistemi, la fiducia, la scalabilità e la migliorata qualità tecnica.
Anche spostandoci in un contesto prettamente economico-finanziario, le cose non cambiano molto.
Un sistema AI non conforme è più economico solo al netto del debito tecnico e legale dai quali rischia di essere contraddistinto. Un sistema AI che rispetta l’AI Act tende a essere più costoso all’inizio del suo ciclo di vita, ma diventa con il tempo più economico.
Avere maggiori accessi ai mercati, potere competere sul piano globale grazie alla fiducia degli stakeholder, restringere il perimetro dei rischi legali e regolatori ha certamente un costo, ma ridurre tutto ciò a un costo è un errore grossolano.






