approfondimento

AI Act, ecco come le Pmi possono prepararsi all’introduzione



Indirizzo copiato

Dalla definizione di una politica aziendale per la scelta e la gestione dei sistemi AI, alla formazione del personale, dalla valutazione dei rischi all’adozione di misure di sicurezza. Un utile decalogo per la compliance con la normativa europea in arrivo

Pubblicato il 18 apr 2024

Tamara Devalle

Consulente in ambito tecnologico – innovazione – trasformazione digitale e automazione dei processi – IT Governance – modelli operativi IT – risk management & compliance

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant//BCI Cyber Resilience Committee Member/CLUSIT Scientific Committee Member/BeDisruptive Training Center Director/ENIA – Comitato Scientifico

Andrea Pasquinucci

Consulente in sicurezza informatica – Cybersecurity – progetti governance – risk management – compliance – audit e formazione in sicurezza IT



AI Act

È ormai noto che l’Unione Europea ha varato il Regolamento sull’intelligenza artificiale, AI Act, che classifica i sistemi di AI in base ai rischi per i diritti delle persone e i valori della società. I rischi sono classificati in: inaccettabili, sistemici, alti, limitati e minimi. Il Regolamento si applica a tutti coloro che sviluppano o utilizzano sistemi AI.

Per prepararsi al Regolamento, le piccole e medie imprese dovranno:

  • Definire una politica aziendale per la scelta, adozione e gestione dei sistemi AI, individuando ruoli e responsabilità. È fondamentale nominare un responsabile del governo dei sistemi AI.
  • Formare e sensibilizzare il personale sull’uso corretto dei sistemi AI, attraverso programmi di informazione e formazione periodici.
  • Creare un catalogo dei sistemi AI utilizzati, classificandoli in base ai rischi secondo il Regolamento. Per ogni sistema vanno specificate informazioni come scopo d’uso, dati trattati, valutazione dei rischi, ecc.
  • Valutare i rischi di ogni sistema AI secondo i criteri del Regolamento, considerando anche i rischi specifici aziendali legati al caso d’uso. La valutazione può differire da quella fornita dal fornitore del sistema.
  • Adottare misure di gestione e sicurezza adeguate ai rischi, in collaborazione con i fornitori IT. Tra queste: valutazione continua dei rischi, sicurezza dei dati di addestramento, documentazione, supervisione esperta, mitigazione di debolezze specifiche dei sistemi AI.

La classificazione dei sistemi in categorie di rischio

Il Regolamento AI Act dell’Unione Europea, recentemente approvato dal Parlamento europeo [Rif. 1], è un passo significativo verso la regolamentazione dei sistemi di intelligenza artificiale (sistemi AI), che stanno vivendo una crescita senza precedenti in settori cruciali della nostra società. Per assicurare uno sviluppo e un utilizzo responsabili, il Regolamento “AI Act” introduce una classificazione dei sistemi AI in categorie di rischio considerando l’impatto che questi sistemi possono avere sulla società e sui diritti degli individui.

Il Regolamento AI Act crea un quadro legale europeo comune per i sistemi AI, adottando un approccio basato sulla valutazione del rischio, in base al potenziale impatto sui diritti dei cittadini e i valori umani della nostra società e ne supporta l’adozione in un contesto aziendale introducendo linee guida in ambiti quali il risk management, il testing, la trasparenza, la data governance e la supervisione umana dei sistemi AI. Le organizzazioni sono chiamate a instaurare un dialogo aperto e trasparente con i fornitori e gli sviluppatori di soluzioni di sistemi AI per una chiara comprensione e mitigazione dei rischi.

L’AI Act è formulato come un Regolamento UE che ha applicazione diretta in tutti gli Stati membri, senza necessità di trasposizione nazionale, garantendo così un’applicazione uniforme della nuova legislazione. Il Regolamento “AI Act” mira a garantire che i sistemi AI soddisfino “requisiti essenziali” prima di poter accedere al mercato unico europeo, creando degli obblighi giuridicamente vincolanti, come già avvenuto per i Regolamenti riguardanti la privacy dei dati, le piattaforme online e la regolamentazione del commercio elettronico.

Oltre all’AI Act, l’Unione Europea sta adottando altre iniziative normative come il Digital Services Act (DSA) e il Digital Markets Act (DMA), che mirano a regolamentare le grandi piattaforme online e promuovere la concorrenza. Inoltre, l’UE si sta impegnando, in collaborazione con altre nazioni e organizzazioni internazionali, a creare un quadro normativo globale per i sistemi AI [Rif. 2], al fine di garantire un ambiente sicuro, affidabile e rispettoso dei diritti umani per lo sviluppo e l’utilizzo di queste tecnologie in tutto il mondo.

Infine, l’AI Act introduce obblighi di conformità specifici per le aziende che utilizzano sistemi AI ad alto rischio richiedendo l’adozione di rigorosi protocolli di risk management, incluse valutazioni dinamiche e proattive dei rischi e misure di mitigazione come la supervisione umana, per assicurare un utilizzo dei sistemi AI etico e rispettoso dei diritti umani.

Cosa dice il Regolamento AI Act

Riassumiamo brevemente in questa sede i principali contenuti di possibile interesse per piccole e medie imprese:

  • Scopo del Regolamento è promuovere l’adozione di sistemi AI affidabili (“trustworthy”) e incentrati sull’uomo, garantendo nel contempo un elevato livello di protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta Europea, compresi la democrazia, lo Stato di diritto e la tutela dell’ambiente.
  • Buona parte del Regolamento è indirizzato ad aziende (“Provider”) che sviluppano e forniscono sistemi AI; tuttavia, i requisiti principali si applicano a chiunque utilizzi (“Deployer”) sistemi AI, in quanto, in molte situazioni, è lo scopo dell’utilizzo che ne determina i possibili impatti e rischi.
  • Il Regolamento valuta i sistemi AI in base al loro potenziale impatto sui diritti e sui valori della persona e della società umana, seguendo l’approccio già adottato ad esempio per il GDPR. Si noti che il Regolamento non considera impatti e rischi per le aziende derivanti dall’utilizzo di sistemi AI, ma questi possono essere valutati dalle aziende in parallelo a quanto richiesto dal Regolamento.
  • Il Regolamento adotta la seguente definizione generale di “sistemi AI”, ovvero dei prodotti software a cui si applica il Regolamento:

“Sistema di intelligenza artificiale”: un sistema automatizzato progettato per funzionare con livelli di autonomia variabili e che può presentare adattabilità dopo la diffusione e che, per obiettivi espliciti o impliciti, deduce dall’input che riceve come generare output quali previsioni, contenuti, raccomandazioni o decisioni che possono influenzare ambienti fisici o virtuali.

Questa definizione include applicazioni basate su tecnologie software quali ‘machine learning‘, altre basate su approcci logici e ‘knowledge-based‘, approcci statistici e altre applicazioni che hanno abilità superiori al semplice processamento logico potendo imparare, modellare, dedurre, inferire o ragionare.

  • Il Regolamento classifica i sistemi AI sulla base dei rischi che possono creare per i diritti e i valori della persona e della società umana; i rischi associati all’uso di un Sistema AI possono essere classificati nei seguenti livelli: inaccettabile, sistemico, alto, limitato e minimo, anche se il Regolamento considera esplicitamente solo i primi tre livelli.

Il Regolamento imposta la valutazione dei rischi per i diritti e valori della persona e della società, in maniera pressoché indipendente dalla tecnologia utilizzata; quindi sono il caso d’uso e le informazioni trattate dal sistema AI che devono guidare la valutazione dei rischi; ovviamente casi d’uso e finalità differenti di trattamento delle informazioni possono richiedere diverse infrastrutture tecnologiche e modelli AI. Inoltre, il Regolamento non si applica alla ricerca e sviluppo di modelli AI (quando svolti in ambienti sicuri) e quando i sistemi AI sono utilizzati solo internamente all’azienda e solo a supporto di attività umane quali decisioni o procedure minori, senza alcun possibile rischio per i diritti e valori della persona e della società.

  • I principali tipi di sistemi AI proibiti dal Regolamento sono quelli che:
    1. Utilizzano tecniche subliminali o tecniche deliberatamente manipolative o ingannevoli.
    2. Sfruttano le vulnerabilità di una persona o di un gruppo specifico di persone a causa della loro età, disabilità o situazione sociale o economica.
    3. Classificano individualmente le persone fisiche sulla base dei loro dati biometrici per dedurre o inferire la loro razza, opinioni politiche, appartenenza sindacale, convinzioni religiose o filosofiche, vita sessuale o orientamento sessuale.
    4. Valutano o classificano le persone fisiche o gruppi di persone in un determinato periodo di tempo in base al loro comportamento sociale o a caratteristiche personali o di personalità dedotte o previste.
    5. Identificano le persone fisiche in via biometrica remota “in tempo reale” in spazi accessibili al pubblico a fini di applicazione della legge [con alcune eccezioni].
    6. Creano o espandono una base dati di riconoscimento facciale attraverso lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere.
    7. Deducono le emozioni di una persona fisica negli ambiti del posto di lavoro e degli istituti di istruzione.
Microsoft 365 Copilot
  • I sistemi AI a rischio sistemico sono tipicamente i modelli AI General Purpose di grandissima capacità operativa quali ad esempio i modelli generativi (GPT di OpenAI, Copilot di Microsoft, Bard e Gemini di Google, LLaMA di Meta ecc.); i fornitori (“Provider”) di questi sistemi AI devono seguire una specifica procedura di approvazione della Commissione Europea prima di essere messi sul mercato.
  • I sistemi AI a rischio alto sono descritti negli Annex II e III del Regolamento; si riportano qui i principali casi d’uso che comportano di norma la classificazione a rischio alto:
    1. Elaborazione di dati per la sicurezza delle persone (“Safety”, come definito dalla legislazione europea riportata nell’Annex II) o componente di sicurezza (“Safety”) di una applicazione.
    2. Elaborazione di dati biometrici, nella misura in cui il loro utilizzo è consentito dal Regolamento e dalla legislazione dell’Unione Europea o nazionale.
    3. Elaborazione di dati per le infrastrutture critiche.
    4. Elaborazione di dati per l’istruzione e la formazione professionale.
    5. Elaborazione di dati per l’occupazione, la gestione dei lavoratori e l’accesso al lavoro autonomo.
    6. Elaborazione di dati per l’accesso e il godimento dei servizi privati essenziali e dei servizi e benefici pubblici essenziali.
    7. Elaborazione di dati per l’applicazione della legge, nella misura in cui il loro utilizzo è consentito dalla legislazione dell’Unione Europea o nazionale.
    8. Elaborazione di dati per la gestione della migrazione, dell’asilo e del controllo delle frontiere, nella misura in cui il loro utilizzo è consentito dalla legislazione dell’Unione Europea o nazionale.
    9. Elaborazione di dati per l’amministrazione della giustizia e dei processi democratici.
  • In linea con quanto avviene per altri prodotti regolamentati a livello europeo (come per i dispositivi medici e le apparecchiature elettroniche) il Regolamento prevede in alcuni casi che le aziende (“Provider”) siano responsabili della valutazione di conformità dei loro sistemi AI, altrimenti è necessario rivolgersi a un organismo esterno per effettuare la valutazione. Per agevolare questo processo, la Commissione Europea si baserà su standard proposti da enti di normazione come l’Organizzazione Internazionale per la Standardizzazione (ISO) e il Comitato Europeo di Normazione (CEN), che forniranno un quadro di riferimento per valutare la conformità dei sistemi AI e garantire un approccio coerente e uniforme nell’intera Unione Europea. Questo renderà più semplice la valutazione e l’utilizzo da parte delle aziende (“Deployer”) dei sistemi AI.
  • Infine, come già per altri Regolamenti europei, sono previste sanzioni severe in caso di non conformità al Regolamento che in alcuni casi possono arrivare fino a 35 milioni di euro o al 7% del fatturato annuo dell’organizzazione, a seconda di quale importo sia maggiore.

Come prepararsi all’introduzione dell’AI Act

Governo

La gestione dei sistemi AI, ovvero i sistemi informatici che forniscono o contengono componenti che rientrano nella definizione di intelligenza artificiale del Regolamento AI Act, può essere basata su 5 ambiti di azione:

Sulla base della bozza del Regolamento “AI Act”, i sistemi AI includono tecnologie software quali ‘machine learning‘, o altre basate su approcci logici e ‘knowledge-based‘, e approcci statistici.

Abbiamo ragionato insieme come gruppo di lavoro per disegnare un possibile approccio alla gestione della conformità al Regolamento AI Act per piccole e medie imprese il cui ambito commerciale non sia tra i seguenti (si vedano anche gli Annex II e III della bozza del Regolamento AI Act):

  • servizi informatici;
  • servizi per le infrastrutture critiche;
  • servizi, gestione, selezione, formazione del personale;
  • servizi per i diritti della persona;
  • servizi per la giustizia e la sicurezza.

Vista la dimensione delle aziende in ambito, si assume che nessun sistema AI aziendale sia completamente sviluppato dall’azienda stessa ma principalmente da terze parti.

Politica

Il primo passo è definire e adottare una politica aziendale che indichi i ruoli e le responsabilità nella scelta, adozione, gestione e monitoraggio dei sistemi AI utilizzati dall’azienda, e i requisiti che i sistemi AI devono rispettare per poter essere adottati e utilizzati in azienda.

È fondamentale nominare un responsabile del governo dei sistemi di intelligenza artificiale in uso presso l’azienda. Il responsabile ha il compito di organizzare e verificare l’esecuzione dei processi necessari per il governo dei sistemi AI aziendali.

Oltre a individuare i ruoli e le responsabilità in azienda per il governo dei sistemi AI, questa Politica deve indicare le linee guida aziendali per l’adozione e l’utilizzo dei sistemi AI a seconda del tipo di informazioni e di trattamento dei dati coinvolti. Queste linee guida devono essere allineate all’approccio aziendale alla gestione dei rischi.

Ad esempio, un’azienda può decidere che alcuni tipi di informazioni relative al core business aziendale non possono essere trattate da sistemi AI a meno che questi non siano interni all’azienda e isolati da altri sistemi IT. In questo caso risulterebbe vietato in azienda l’utilizzo di strumenti come ChatGPT (OpenAI) o Copilot (Microsoft) per migliorare la formulazione di documenti che contengono queste informazioni. L’esempio di Copilot [Rif. 5] è particolarmente significativo: per essere veramente efficace deve accedere, analizzare e processare tutte le informazioni gestite tramite gli strumenti di Office365: dai documenti a email, messaggi e riunioni in Teams ecc. Si noti comunque che Microsoft dichiara di non utilizzare i dati dei clienti per l’addestramento di Copilot.

Le linee guida di cui è composta la Politica, devono quindi fornire i criteri per valutare quando o in quali modalità l’utilizzo di un Sistema AI è allineato alle politiche, alle prassi e alla gestione dei rischi aziendali.

La Politica deve anche indicare quali requisiti di base, contrattuali e tecnici, esigere dai fornitori di sistemi AI o di servizi basati o che contengono componenti di sistemi AI. Lo scopo è di garantire che il trattamento delle informazioni da parte dei fornitori rispetti sia i requisiti di legge (incluso il Regolamento AI Act) sia quelli di sicurezza a protezione delle informazioni aziendali. Si noti che il Regolamento AI Act prevede la valutazione e certificazione di conformità di sistemi AI da parte dei fornitori, inclusa la classificazione di rischio secondo il Regolamento e la disponibilità per gli utilizzatori di adeguata documentazione sia tecnica sia per gli utilizzatori finali.

Si sottolinea che alcuni dei requisiti di questa Politica sono in realtà requisiti aziendali che si aggiungono ai requisiti del Regolamento AI Act.

Formazione, informazione e sensibilizzazione

L’avvento dei sistemi AI e in particolar modo dei modelli di Machine learning, porta una modifica sostanziale all’approccio e all’utilizzo dei sistemi informatici. ChatGPT ha mostrato a tutti sia le potenzialità sia le debolezze degli attuali dei sistemi AI.

I modelli di Machine learning, e in particolare quelli che vanno sotto i nomi di Large Language Model, Foundation Model e Generative Model, hanno delle caratteristiche elaborative di cui tutti dobbiamo essere almeno un poco coscienti prima di utilizzarli.

Infatti siamo tutti abituati ad applicazioni informatiche in cui le regole di elaborazione dei dati sono stabilite e codificate dagli sviluppatori: questo garantisce che allo stesso input corrisponda sempre lo stesso output, e che l’elaborazione sia assolutamente deterministica.

Invece i modelli di Machine learning apprendono da soli le regole di elaborazione tramite l’analisi di, spesso enormi, set di dati di addestramento da cui vengono autonomamente dedotte regole probabilistiche di elaborazione. Un modello Machine learning a reti neurali, dato un input, tipicamente fornisce in output la risposta che ha la più alta probabilità di corrispondenza con i suoi dati di addestramento.

Quindi quando si usano questi modelli è necessario chiedersi se il risultato ha senso ancor prima di verificare se il risultato è quello corretto, oppure cercare di capire quali correlazioni sono state identificate dal modello tra i dati che sono stati inviati in input e i dati di addestramento.

Inoltre, viste le interfacce “user friendly” o la raccolta automatica di informazioni che questi modelli possono fare, è necessario essere coscienti di come i dati personali e aziendali possono essere utilizzati da questi sistemi AI, non solo per essere elaborati o archiviati, ma anche per essere utilizzati come dati di apprendimento.

L’utilizzo dei sistemi AI richiede quindi la creazione di una nuova sensibilità sia a livello aziendale sia a livello personale. Per le aziende questo richiede l’introduzione di una attività periodica o ricorrente di informazione e formazione, anche perché ci si aspetta che nel prossimo futuro l’evoluzione e l’adozione dei sistemi AI sarà estremamente veloce.

Per le piccole e medie aziende, questo programma di informazione / formazione può far leva su offerte formative preconfigurate da parte di fornitori esterni e deve necessariamente intersecarsi con la formazione in ambito Data Governance, Privacy e Information Security. Ad oggi, soprattutto i programmi di informazione e sensibilizzazione generale sono ancora poco presenti nel mercato della formazione, sia in presenza che online; ma a breve, anche grazie alla necessità di informazione e formazione sui requisiti e i diritti degli individui garantiti dal Regolamento AI Act, ci si attende che sarà resa disponibile una offerta adeguata di corsi dedicati.

Per il personale IT aziendale sono già disponibili corsi tecnici di formazione sui sistemi AI, che continueranno ad ampliarsi.

Comunque, per il personale IT aziendale si pongono due situazioni: se i sistemi AI sono completamente gestiti da fornitori esterni, il personale IT aziendale deve avere competenze sufficienti per poter supportare gli utenti aziendali sulle applicazioni utilizzate, e questo tipo di formazione può essere erogato dai fornitori stessi dei sistemi AI.

Se invece alcuni sistemi AI sono gestiti direttamente dal personale IT aziendale, è necessario che questi abbiano una formazione più specializzata che copra non solo i prodotti specifici utilizzati, ma anche più in generale le caratteristiche dei tipi di sistemi AI in uso in azienda. Ad esempio, se sono utilizzati modelli Machine learning, il personale IT aziendale che li gestisce deve avere competenze sui processi e i metodi di raccolta dei dati di addestramento e dell’attività di addestramento stessa, sulle verifiche e test da svolgere per controllarne il corretto comportamento, sul monitoraggio da implementare per identificare eventuali difetti o errori quali ad esempio i bias.

Catalogo dei sistemi AI aziendali

Anche se il Regolamento AI Act non lo richiede esplicitamente, per poter essere conformi e poter gestire i sistemi AI aziendali, è indubbia la necessità di creare, gestire e tenere aggiornato un catalogo dei sistemi AI utilizzati in azienda. Questo catalogo deve contenere tutti i sistemi AI aziendali, sia quelli gestiti internamente all’IT aziendale sia quelli forniti direttamente da fornitori esterni tipicamente in modalità di servizio in Internet (cioè Cloud SaaS).

Per realizzare e gestire questo catalogo è necessario almeno:

  1. Identificare tra tutte le applicazioni IT già in uso in azienda, quali sono composte o contengono componenti AI e quindi sono sistemi AI; devono essere comprese sia applicazioni di business sia quelle di supporto, ad esempio anche antivirus o firewall;
  2. Nel caso di acquisto di una nuova applicazione o software, tra le informazioni da chiedere inizialmente al fornitore deve essere sempre presente l’informazione sulla presenza o meno di componenti AI;
  3. Ogni qual volta viene fatto un aggiornamento di un’applicazione o software in uso in azienda e non classificato come sistema AI, bisogna verificare se la nuova versione include componenti AI; questo è chiaramente più difficile da monitorare per le applicazioni utilizzate come servizio in Internet e deve perciò essere stabilito un canale di comunicazione con il fornitore che garantisca all’azienda di ricevere le necessarie informazioni su ogni nuova versione dell’applicazione.

Ogni sistema AI presente nel catalogo deve essere corredato da informazioni utili alla valutazione e utilizzo dell’applicazione. Tra questi si segnalano le seguenti:

  • Lo scopo di business per cui viene utilizzato il sistema AI;
  • I tipi di informazioni aziendali e personali che sono trattati dal sistema AI;
  • Modalità e eventuali limitazioni di utilizzo del sistema AI;
  • La classificazione dei rischi secondo il Regolamento AI Act svolta dal fornitore;

nel caso il sistema AI sia classificato dal fornitore a rischio sistemico o alto, il fornitore deve fornire all’azienda la valutazione di conformità al Regolamento AI Act e la documentazione associata;

  • Il risultato della Valutazione dei Rischi e Classificazione AI Act come descritto nella prossima sezione;
  • Per modelli di Machine learning e General purpose (quali ad esempio ChatGPT, Copilot, Bard, Gemini, LLaMA ecc.):
    • I tipi di dati di addestramento e le modalità di raccolta, archiviazione e cancellazione degli stessi;
    • Quali dati aziendali sono utilizzati per l’addestramento del modello;
    • Possibili difetti (es. bias) del modello che il fornitore e/o l’azienda devono monitorare;
    • Eventuali rischi di violazione di diritti d’autore (ad esempio dovuti all’utilizzo di dati di addestramento soggetti a diritti d’autore) o di diffusione di informazioni riservate (ad esempio dovuti all’utilizzo per l’addestramento di dati aziendali riservati).

Valutazione dei rischi e classificazione AI Act

Il Regolamento AI Act richiede di classificare ogni sistema AI nelle categorie di rischio: Inaccettabile, sistemico, Alto, a cui si aggiungono per completezza Limitato e Minimo, secondo i criteri indicati dal Regolamento stesso. Questa classificazione è basata sulla valutazione dei rischi per i diritti degli individui europei e deve essere fatta in primo luogo dai fornitori dei sistemi AI.

Ogni azienda deve però svolgere una propria valutazione, seppure in molti casi minima, sia per confermare o modificare la classificazione svolta dal fornitore, sia per valutare i rischi di business, compliance e sicurezza associati allo specifico utilizzo aziendale del sistema AI.

In attesa che venga emanato il Regolamento e vengano emesse linee guida specifiche sull’esecuzione delle valutazioni per la classificazione AI Act, ogni azienda può iniziare a svolgere valutazioni dei rischi sui principali sistemi AI aziendali anche per verificare la loro classificazione AI Act.

Infatti la valutazione dei rischi e la classificazione Ai Act del sistema AI può dipendere dal caso d’uso, ovvero da come il sistema AI è utilizzato in azienda e soprattutto quali dati sono elaborati da questo, con quali finalità e modalità di elaborazione.

Il seguente è un esempio teorico molto semplificato per indicare come la classificazione “AI Act” può dipendere dall’utilizzo aziendale di una tecnologia AI. Si consideri una telecamera CCTV connessa a un modello Machine learning per il riconoscimento di immagini. Un primo utilizzo di questo sistema AI può essere per monitorare eventuali guasti di macchine (ad esempio una linea di produzione, una macchina per packaging o un magazzino completamente automatizzati). È molto probabile che la classificazione AI Act di questo sistema AI sia a rischio minimo.

Si consideri invece un sistema di telecamere CCTV connesse allo stesso modello Machine learning per il riconoscimento di immagini, ma utilizzato in un luogo pubblico per l’identificazione in tempo reale di persone (se vedano ad esempio [Rif. 6 e 7]): in questo caso, secondo l’ultima bozza del Regolamento, questo sistema AI dovrebbe essere classificato come rischio inaccettabile e quindi completamente vietato.

Si noti che la valutazione dei rischi secondo il Regolamento Ai Act di un sistema AI non sempre coincide con la valutazione dei rischi aziendali per l’utilizzo dello stesso sistema AI.

Si consideri come semplice esempio teorico, un’applicazione Machine learning per la traduzione di testi in diverse lingue fornita in Internet (es. Cloud SaaS). È molto probabile che la classificazione AI Act di questa applicazione sia a rischio limitato. Ora se in azienda si decide di utilizzare questa applicazione per la traduzione dei manuali di utilizzo dei prodotti in vendita, manuali liberamente scaricabili dal sito internet aziendale, il rischio di business sarà molto probabilmente nullo per la confidenzialità e basso o medio per l’integrità delle informazioni. Se invece lo stesso sistema AI viene utilizzato dall’azienda per tradurre documenti che contengono segreti industriali, il rischio di business sarà molto probabilmente altissimo e questo utilizzo in azienda dovrebbe essere vietato, anche se la classificazione AI Act rimane a rischio limitato.

Un altro esempio di possibile interesse è l’utilizzo di sistemi di AI Generativa a scopi di marketing quali la creazione di campagne commerciali con la generazione di testi, immagini o video promozionali. In questo caso i rischi per gli individui e la società da valutare per il Regolamento AI Act sono in genere limitati ma non inesistenti: infatti deve essere considerata la possibilità che, nel caso siano presenti persone seppur fittizie in quanto generate dal sistema AI, vi possano essere bias o altre limitatezze del sistema AI che comportano la presenza di discriminazione di genere, di minori, di classi sociali ecc. Quindi un utilizzo di un sistema AI a scopi di marketing che preveda campagne commerciali con la rappresentazione di individui potrebbe essere valutato a rischio alto per il Regolamento AI Act, e in assenza di persone a rischio limitato o minimo. La valutazione dei rischi di business per l’utilizzo di un sistema AI Generativo a scopi di marketing comprendono in genere altri aspetti quali l’efficacia del materiale generato e utilizzato nella campagna di marketing e il rischio che eventuali errori o imprecisioni, soprattutto nei video, possano portare al fallimento della campagna e a danni reputazionali.

In ogni caso nel valutare i rischi dovuti all’utilizzo di un sistema AI va fatta attenzione a specifiche debolezze o vulnerabilità di queste applicazioni informatiche quali la possibile presenza di bias; si veda [Rif. 3] per ulteriori informazioni sulla valutazione dei rischi in questo contesto.

Misure di gestione e sicurezza

I sistemi informatici e le applicazioni IT delle piccole e medie aziende spesso sono gestiti da fornitori IT esterni su cui ricade la quasi totalità del disegno e implementazione dei processi e delle misure di gestione e controllo dei sistemi informativi, inclusi gli aspetti di sicurezza quali il monitoraggio e la gestione degli incidenti informatici.

Anche per la gestione dei sistemi AI e per garantire la conformità al AI Act, i fornitori IT svolgono un ruolo primario, ma le associate responsabilità e azioni ricadono anche sull’azienda.

Si riporta un breve elenco di ambiti di sicurezza che devono essere gestiti dai fornitori di sistemi AI a rischio sistemico o alto, misure di cui deve essere data evidenza dal fornitore (“Provider”) all’azienda utilizzatrice (“Deployer”) o che in parte possono essere messe in atto direttamente dall’azienda stessa. Questi ambiti sono indicati anche dal Regolamento AI Act:

  1. Esecuzione di un processo continuo di valutazione e mitigazione dei rischi derivanti dall’utilizzo dei sistemi AI (si veda la precedente sezione).
  2. Adozione di misure di sicurezza, qualità e integrità per la raccolta e preparazione dei dati di addestramento dei sistemi AI:
    • L’addestramento dei sistemi AI richiede usualmente grandissime quantità di dati spesso scaricati da Internet o generati automaticamente (dati di addestramento “sintetici”); la qualità dei dati, la loro completezza e integrità sono direttamente legate al comportamento del sistema AI e l’assenza di debolezze e vulnerabilità quali “bias” ecc.; si consideri che un attaccante potrebbe modificare i dati di addestramento o inserirne nuovi in modo da cambiare il comportamento del sistema AI (attacchi di “data poisoning”, e “model poisoning”; un semplice esempio è il caso di un sistema AI utilizzato per individuare malware in cui l’attaccante cambi la classificazione nei dati di addestramento di alcuni tipi di malware in software benigno). È necessario pertanto che chi addestra il sistema AI adotti procedure per la verifica della sicurezza, qualità e integrità dei dati di addestramento e nel caso il sistema AI non sia addestrato dall’azienda, ne dia informazione documentata all’azienda.
    • Spesso i dati di addestramento dei sistemi AI sono forniti e preparati da terze parti, oltre al “Provider” e al “Deployer”, ed è quindi necessario che le precedenti verifiche siano implementate e documentate su tutta la catena di approvvigionamento dei dati di addestramento anche per evitare che un attaccante possa inserirsi in essa.
  3. Documentazione tecnica, funzionale e d’uso aggiornata che include anche gli aspetti di sicurezza e integrità e per la qualità e accuratezza dei sistemi AI.
    • Il Regolamento AI Act richiede che i “Provider” preparino, mantengano e rendano disponibile la documentazione necessaria sia per l’uso corretto dei sistemi AI che forniscono alle aziende e ai cittadini, sia per una completa valutazione dei rischi derivanti dal loro utilizzo e delle misure di sicurezza che ogni utilizzatore (azienda “Deployer” e cittadino) deve adottare.
    • Le aziende che utilizzano sistemi AI, in particolare se installati sui propri sistemi IT, sono tenute a integrare la documentazione fornita dai “Provider” con le necessarie informazioni per l’uso, sui rischi e sulle misure di sicurezza relativo allo specifico uso aziendale di ogni sistema AI.
  4. Supervisione da parte di personale specializzato ed esperto del funzionamento e dei dati prodotti dai sistemi AI.
    • Sia i “Provider” sia le aziende “Deployer”, sulla base dei rischi associati ad ogni Sistema AI utilizzato, devono valutare se vi sia la necessità di una continua supervisione da parte di proprio personale specializzato ed esperto sul funzionamento e i dati prodotti dai sistemi AI; questo vale in particolare per modelli AI General Purpose, Generativi o comunque a rischio alto, per i quali, in caso di rischio veramente elevato per il Regolamento AI Act o per l’azienda, si può richiedere che ogni dato prodotto dal sistema AI sia preventivamente valutato da un esperto prima di essere inviato all’utente finale.
  5. Adozione di misure tecniche per mitigare specifiche debolezze dei sistemi AI, quali attacchi ai dati di addestramento (es. “data poisoning”, “model poisoning”), presenza di “bias” o “allucinazioni” nei dati prodotti, attacchi per sovvertire il modello (es. “prompt injection”, “model evasion”, “adversarial example”). Queste misure di sicurezza devono essere adottate dai “Provider” dei sistemi AI e anche dalle aziende “Deployer” per i sistemi AI installati sui propri sistemi IT.
    • Le misure di sicurezza possono essere distinte tra quelle per il processo di addestramento dei modelli AI e quelle a difesa dei modelli AI in produzione.
    • Le misure di sicurezza per l’addestramento dei modelli AI riguardano sia la protezione dei dati e dei modelli AI da attacchi negli ambienti di sviluppo e produzione, sia i processi di preparazione dei dati di addestramento per garantirne l’integrità e completezza.
    • Oltre alle misure di sicurezza comuni a qualunque applicazione IT, per i modelli AI in produzione possono essere adottate ulteriori misure di sicurezza quali filtri sui dati in input e output al modello, monitoraggio con produzione di allarmi sia sui dati in input sia in output dal modello allo scopo di identificare abusi e comportamenti errati del modello stesso (in alcuni casi è possibile anche utilizzare altri modelli AI tra gli strumenti di monitoraggio).

Conclusioni

Il Regolamento “AI Act” richiede che l’adozione delle innovative tecnologie di AI sia fatta valutando e gestendo appropriatamente i rischi che ne derivano per i diritti dei cittadini e i valori umani della nostra società, ai quali è facile aggiungere la valutazione e gestione dei rischi per le aziende stesse.

Questo documento si pone come una introduzione alle tematiche proposte dal Regolamento AI Act fornendo alcuni spunti e suggerimenti concreti su come iniziare ad affrontare sia la conformità al nuovo Regolamento, sia una gestione aziendale appropriata dei rischi associati a queste nuove tecnologie. Oltre al proprio contesto aziendale, va anche tenuto conto l’attuale rapidissimo sviluppo di queste tecnologie e del relativo mercato, che presenta caratteristiche e rischi specifici, tra i quali non va sottovalutata la scarsità e/o alto costo delle figure professionali con competenze specialistiche.

In conclusione, l’intelligenza artificiale rappresenta un’opportunità senza precedenti ma va governata. Non solo può automatizzare i processi e migliorare l’efficienza, ma può anche aprire nuove strade per l’innovazione e la crescita. Tuttavia, per sfruttare appieno queste opportunità, le PMI devono essere pronte ad adottare le nuove tecnologie, a gestirne i rischi evolvendo appropriatamente anche i processi interni e a investire nella formazione del personale.

L’AI non è più un concetto futuristico, ma una realtà tangibile che sta trasformando il mondo attuale.

Nota

Si ringraziano Andrea Saracino e i membri del gruppo di lavoro congiunto “AI & Cybersecurity” delle associazioni AIxAI e Clusit per i loro spunti e suggerimenti.

Riferimenti

  1. Unione Europea, “Proposta di regolamento che stabilisce regole armonizzate sull’intelligenza artificiale”, https://www.europarl.europa.eu/doceo/document/A-9-2023-0188-AM-808-808_IT.pdf
  2. Council of Europe, “Framework Convention on Artificial Intelligence, Human Rights, Democracy and the Rule of Law”, https://www.coe.int/en/web/portal/-/artificial-intelligence-human-rights-democracy-and-the-rule-of-law-framework-convention , https://rm.coe.int/cai-2023-28-draft-framework-convention/1680ade043
  3. T. Devalle e A.Pasquinucci, Rapporto Clusit 2023, “Intelligenza Artificiale: Un approccio alla gestione dei rischi per le aziende”
  4. NIST “AI Management Framework 1.0”, https://www.nist.gov/itl/ai-risk-management-framework
  5. “Data, Privacy, and Security for Microsoft Copilot for Microsoft 365”, https://learn.microsoft.com/en-us/microsoft-365-copilot/microsoft-365-copilot-privacy
  6. “Uso improprio dell’intelligenza artificiale: Multe salate per Trento”, https://www.tecnoandroid.it/2024/01/30/uso-improprio-dellintelligenza-artificiale-multe-salate-per-il-comune-di-trento-1341000/
  7. “I violenti allo stadio li riconosci dalla faccia Il calcio apre all’AI”, La Repubblica, 24 febbraio 2024

Articoli correlati

Articolo 1 di 4