scenari

PMI e AI: ecco i consigli per una implementazione di successo



Indirizzo copiato

L’adozione dell’AI nelle PMI è un’opportunità strategica, ma richiede visione, competenze, infrastrutture adeguate e attenzione all’etica, alla governance e alla normativa. Un approccio graduale e multidisciplinare, basato su formazione, monitoraggio e trasparenza, è essenziale per garantirne l’efficacia, la sostenibilità e il rispetto dei diritti. L’elemento umano resta centrale

Pubblicato il 21 lug 2025

Federica Maria Rita Livelli

Business Continuity & Risk Management Consultant//BCI Cyber Resilience Committee Member/CLUSIT Scientific Committee Member/BeDisruptive Training Center Director/ENIA – Comitato Scientifico



ANIE AI

L’AI rappresenta oggi una delle più significative rivoluzioni tecnologiche della nostra epoca. Tuttavia, la sua implementazione, soprattutto nelle PMI, richiede un approccio strategico che consideri non solo le opportunità tecnologiche, ma anche le implicazioni organizzative, etiche, il quadro normativo in evoluzione e le tempistiche operative necessarie per un’adozione responsabile e sostenibile.

Pmi e AI: i pilastri di un’implementazione di successo e le sfide da affrontare

Sebbene l’AI sia presentata come la panacea per garantire l’automazione dei processi, la riduzione degli errori, l’efficienza operativa, le analisi predittive, c’è una statistica che dovrebbe farci riflettere profondamente: oltre l’80% dei progetti di implementazione dell’AI in vari ecosistemi fallisce.

Pertanto, le PMI che vogliono avvicinarsi all’AI per rimanere competitive devono considerare i seguenti aspetti:

1. Strategia e vision – Prima di investire in qualsiasi tecnologia AI, è fondamentale definire una strategia chiara. Quali sono gli obiettivi specifici che vogliamo raggiungere? Come si allinea l’AI con la nostra mission aziendale e quali impatti ha su di essa? Una vision ben definita guida ogni decisione successiva e garantisce che gli investimenti tecnologici generino valore reale per il business.

2. Valutazione delle competenze e formazione – L’implementazione dell’AI richiede competenze specifiche. È essenziale valutare le competenze attuali del team ed investire nella formazione continua, al fine di creare una cultura aziendale che comprenda e abbraccia l’innovazione tecnologica a tutti i livelli.

3. Infrastruttura e scalabilità – L’AI richiede un’infrastruttura tecnologica robusta e scalabile. I sistemi devono essere progettati per crescere con l’azienda e adattarsi alle future esigenze. Ciò significa investire non solo nella tecnologia attuale, ma in architetture flessibili che possano evolvere nel tempo.

4. Adottare un approccio pilota e iterativo – È fondamentale iniziare con un approccio pilota e iterativo. Ovvero, invece di rivoluzionare tutto subito, è meglio iniziare da un processo specifico, testare, misurare i risultati e migliorare. Ciò riduce i rischi, favorisce l’apprendimento progressivo, oltre a consentire di sviluppare competenze interne prima di estendere l’AI ad ambiti più complessi.

Le sfide da affrontare

La qualità e sicurezza dei dati – La qualità dei dati è il vero tallone d’Achille nei progetti di intelligenza artificiale. Spesso si sottovaluta questo aspetto, ma dati incompleti, incoerenti o obsoleti compromettono l’affidabilità dei risultati. Senza un’adeguata analisi e pulizia preliminare, l’AI può generare output fuorvianti e dannosi. Inoltre, la sensibilità e la sicurezza dei dati rappresentano ulteriori criticità da affrontare con attenzione.

Etica – L’AI pone interrogativi etici cruciali. È quindi essenziale chiedersi: come possiamo garantire che gli algoritmi siano equi e trasparenti? In che modo tuteliamo la privacy dei dati dei nostri clienti?

Rispettare le normative e adottare le migliori pratiche etiche non è solo un obbligo di conformità: è un’opportunità strategica. Agire in modo responsabile rafforza la fiducia di clienti e stakeholder, trasformando l’etica in un vero vantaggio competitivo.

Gestione del cambiamento – L’introduzione dell’AI implica rivedere i processi e può generare resistenze interne. È naturale che i dipendenti abbiano preoccupazioni riguardo l’automazione e il futuro del loro lavoro. Pertanto, una comunicazione trasparente e un coinvolgimento attivo dei team sono essenziali per superare tali resistenze e trasformare l’AI in un alleato e non in una minaccia.

Costi e ROI – L’implementazione dell’AI comporta investimenti significativi. Pertanto, è cruciale analizzare accuratamente i costi iniziali e definire metriche chiare per misurare il ritorno sull’investimento. Inoltre, i benefici spesso si manifestano nel medio-lungo termine ed è importante avere una visione strategica paziente ma determinata.

Budget e risorse – L’implementazione di un framework etico e normativo per l’AI richiede investimenti significativi in: risorse umane specializzate; tecnologie di monitoraggio e audit; consulenza legale e tecnica; sistemi di documentazione e compliance.

Roadmap per l’implementazione dell’AI nelle Pmi

Pianificare l’implementazione è fondamentale. Di seguito una road map delle fasi principali di avvio di un progetto di AI in azienda e tempistiche generalizzate, secondo quanto si evince da diversi documenti e articoli di settore.

Fase 1: valutazione e preparazione (mesi 1-3)

  • Audit iniziale – Condurre un’analisi completa dei sistemi di AI esistenti e pianificati, valutando il loro livello di rischio secondo le normative applicabili.
  • Gap analysis – Identificare le lacune tra la situazione attuale e i requisiti normativi ed etici.
  • Formazione del team – Costituire un team dedicato con competenze tecniche, legali ed etiche.
  • Sviluppo delle politiche – Creare politiche interne sull’uso etico dell’AI e procedure operative standard.

Fase 2: Implementazione dei controlli (mesi 4-8)

  • Sistemi di governance – Implementare strutture di governance che assicurino la supervisione umana e la responsabilità nelle decisioni dell’AI.
  • Processi di valutazione del rischio – Sviluppare e implementare processi sistematici per valutare e gestire i rischi associati ai sistemi di AI.
  • Sistemi di monitoraggio – Implementare strumenti e processi per monitorare continuamente le performance e l’impatto dei sistemi di AI.
  • Documentazione – Creare e mantenere la documentazione richiesta dalle normative.

Fase 3: Testing e ottimizzazione (mesi 9-12)

  • Test pilota – Condurre test pilota su scala ridotta per validare l’efficacia dei controlli implementati.
  • Audit interno – Condurre audit interni per verificare la compliance e identificare aree di miglioramento.
  • Ottimizzazione – Ottimizzare i processi basandosi sui risultati dei test e degli audit.
  • Preparazione per la certificazione – Prepararsi per eventuali audit esterni o processi di certificazione.

Fase 4: Implementazione completa e monitoraggio (mesi 13+)

  • Roll-out completo – Implementare completamente tutti i controlli e i processi in tutta l’organizzazione.
  • Monitoraggio continuo – Implementare processi di monitoraggio continuo per assicurare il mantenimento della compliance.
  • Aggiornamento continuo – Mantenere i sistemi e i processi aggiornati con l’evoluzione delle normative e delle best practice.
  • Reporting – Implementare processi di reporting regolare per gli stakeholder interni ed esterni.
AI Pmi

Approccio etico dell’AI

L’etica nell’AI deve essere considerata un imperativo di business e non solo una questione di compliance. Ovvero, deve rappresentare il fondamento stesso della strategia aziendale. Le organizzazioni lungimiranti hanno compreso che investire nell’etica dell’AI non è solo una questione di compliance, ma un vero e proprio vantaggio competitivo.

Vediamo perché.

Di fatto, l’etica impatta su diversi aspetti aziendali, quali:

  • Fiducia del cliente – I consumatori sono sempre più consapevoli e selettivi. Un’azienda che dimostra trasparenza e responsabilità nell’uso dell’AI costruisce una reputazione solida e duratura. La fiducia si traduce in fedeltà del cliente, che a sua volta si riflette in risultati economici tangibili.
  • Riduzione dei rischi – Implementare principi etici sin dalla fase di progettazione riduce significativamente i rischi operativi, legali e reputazionali e perdita di valore del brand.
  • Innovazione sostenibile – L’etica stimola l’innovazione responsabile, spingendo le aziende a sviluppare soluzioni più inclusive, eque e sostenibili. Tale approccio apre nuovi mercati e opportunità di business precedentemente inesplorate.
  • Attrattività dei talenti – I migliori professionisti del settore sono sempre più attratti da organizzazioni che dimostrano un impegno concreto verso l’etica dell’AI. Questo si traduce in una maggiore capacità di attrarre e trattenere i talenti migliori.

Principi fondamentali dell’etica dell’AI

Le organizzazioni dovrebbero adottare un framework etico basato su pilastri solidi, quali:

  • Trasparenza – Gli algoritmi e i processi decisionali dell’AI devono essere comprensibili e spiegabili agli stakeholder. Ciò non significa necessariamente rivelare tutti i dettagli tecnici, ma garantire che le decisioni prese dall’AI possano essere giustificate e comprese.
  • Equità e non-discriminazione – I sistemi di AI devono essere progettati per evitare bias e discriminazioni, garantendo un trattamento equo per tutti gli utenti indipendentemente dalle loro caratteristiche demografiche, sociali o economiche.
  • Responsabilità – Deve sempre esistere una chiara catena di responsabilità umana per le decisioni prese dai sistemi di AI. L’automazione non può mai significare deresponsabilizzazione.
  • Privacy e sicurezza – La protezione dei dati personali e la sicurezza dei sistemi devono essere priorità assolute, implementate sin dalla fase di progettazione.

Il quadro normativo: navigare tra regolamentazioni e opportunità

Le PMI si trovano a gestire una vera galassia normativa, non solo AI Act ma anche altre principali regolamentazioni. Di seguito una panoramica delle principali normative EU da considerare nell’implementazione dell’AI in azienda.

L’EU AI Act – L’UE ha stabilito la prima normativa organica al mondo sull’AI, categorizzando i sistemi AI in base al loro livello di rischio e stabilendo requisiti proporzionali. Inoltre, l’AI Act mira a garantire:

  • Protezione dei diritti fondamentali – Garantire che lo sviluppo e l’implementazione dell’AI rispettino i diritti umani fondamentali, la democrazia e lo stato di diritto.
  • Promozione dell’innovazione responsabile – Creare un ambiente normativo che favorisca l’innovazione europea nell’AI mantenendo elevati standard di sicurezza ed etica.

Inoltre, l’AI Act definisce:

  • Sistemi AI vietati – Pratiche di AI considerate inaccettabili per i rischi che comportano, quali la manipolazione cognitiva comportamentale o il social scoring generalizzato.
  • Sistemi ad alto rischio – Includono applicazioni in settori critici come sanità, trasporti, giustizia e servizi finanziari. Questi sistemi richiedono rigorosi processi di valutazione della conformità, documentazione dettagliata e monitoraggio continuo.
  • Sistemi a rischio limitato – Richiedono principalmente obblighi di trasparenza, come informare gli utenti che stanno interagendo con un sistema di AI.
  • Sistemi a rischio minimo – La maggior parte delle applicazioni di AI ricade in questa categoria e ha requisiti normativi minimi.

GDPR e privacy – Il GDPR rimane fondamentale per qualsiasi applicazione di AI che elabori dati personali. Di seguito i principi fondamentali rilevanti per l’AI:

Di seguito un’esamina dei diritti degli interessati nell’era dell’AI vs GDPR

  • Diritto alla spiegazione – Sebbene non esplicitamente menzionato, il GDPR fornisce il diritto di ottenere informazioni significative sulla logica delle decisioni automatizzate.
  • Diritto di opposizione – Diritto di opporsi al trattamento automatizzato, inclusa la profilazione.
  • Protezione dalle decisioni automatizzate – Limitazioni specifiche per decisioni basate esclusivamente su trattamenti automatizzati.

Di fatto, AI Act e GDPR garantiscono una protezione complementare, ovvero:

  • Complementarità nella protezione – L’AI Act e il GDPR si completano nella protezione dei diritti individuali, con il GDPR che si concentra sui dati personali, mentre l’AI Act sui rischi sistemici dell’AI.
  • Requisiti di trasparenza rinforzati – Entrambi i regolamenti richiedono trasparenza, creando un doppio livello di protezione per i cittadini.
  • Governance integrata – Le organizzazioni devono implementare sistemi di governance che soddisfino contemporaneamente i requisiti di entrambi i regolamenti.
  • Valutazioni d’impatto congiunte – Per sistemi AI ad alto rischio che trattano dati personali, potrebbero essere necessarie sia DPAI (GDPR) sia FRAI (AI ACT).

Data Act – È doveroso considerare che il Data Act promuove innovazione e responsabilità in termini di:

  • Accesso ai dati per l’AI – Il Data Act facilita l’accesso ai dati necessari per lo sviluppo di sistemi AI conformi all’AI Act.
  • Qualità e diversità – Il Data Act promuove la disponibilità di dataset diversificati, contribuendo a ridurre i bias nei sistemi AI.
  • Trasparenza nella catena del valore – Il Data Act, così come l’AI Act, promuove la trasparenza e la tracciabilità lungo l’intera catena del valore dei dati e dell’AI.

Digital Services Act (DSA, Regolamento UE 2022/2065) – La normativa disciplina i servizi digitali e le piattaforme on-line, imponendo obblighi di valutazione e mitigazione dei rischi sistemici, inclusi quelli legati ai contenuti generati da AI, promuovendo la trasparenza algoritmica e la tutela dei diritti fondamentali nella sfera pubblica e mira di fatto a:

  • Democratizzazione dei dati –Si tratta di facilitare l’accesso e la condivisione dei dati tra gli attori economici, promuovendo un’economia basata sui dati più equa e competitiva.
  • Stimolo all’innovazione – Creare nuove opportunità di business attraverso l’accesso a dataset più ampi e diversificati, fondamentali per lo sviluppo di sistemi AI avanzati.
  • Riduzione delle asimmetrie – Si tratta di bilanciare il potere tra grandi piattaforme tecnologiche e altri attori del mercato nell’accesso ai dati.

Inoltre, in termini di condivisione dei dati garantisce:

  • Diritti degli utenti sui dati IoT – Gli utenti hanno diritto di accedere e condividere i dati generati dai prodotti connessi che utilizzano.
  • Condivisione B2B – Facilitare la condivisione di dati tra imprese per stimolare l’innovazione e la concorrenza.
  • Accesso emergenziale – Possibilità per il settore pubblico di accedere a dati privati in situazioni di emergenza pubblica.

In termini di impatto sull’AI, il DSA contribuisce a garantire:

  • Miglioramento della qualità dei dati – Accesso a dataset più ampi e diversificati per l’addestramento di sistemi AI più accurati e meno viziati da bias.
  • Democratizzazione dell’AI – Riduzione delle barriere all’ingresso per PMI e startup nell’sviluppo di soluzioni AI.
  • Nuovi modelli di business – Creazione di ecosistemi di condivisione dati che favoriscono l’innovazione collaborativa.

Nuovo Regolamento Macchine (Regolamento UE 2023/1230) – Mira a garantire:

  • Sicurezza nell’era digitale – Si tratta di aggiornare i requisiti di sicurezza per le macchine che integrano tecnologie digitali avanzate, inclusa l’AI.
  • Adattamento tecnologico – Estendere la copertura normativa a nuove categorie di prodotti come robot collaborativi, veicoli autonomi e sistemi di produzione intelligenti.

Inoltre, quando si introduce la tecnologia nei macchinari, è necessario creare sinergie con la normativa sull’AI per garantire un approccio coerente alla sicurezza dei sistemi automatizzati.

Ancora, è doveroso considerare gli impatti per l’impiego dell’AI in determinati macchinari in termini di:

  • Sistemi di apprendimento automatico – Si tratta di requisiti specifici per macchine che utilizzano algoritmi di machine learning che possono modificare il loro comportamento durante l’uso.
  • Valutazione dei rischi dinamica – Obbligo di considerare l’evoluzione del comportamento delle macchine dotate di AI nelle valutazioni di sicurezza.
  • Sorveglianza post-commercializzazione – Monitoraggio continuo delle prestazioni di sicurezza per macchine con componenti AI.

Si tratta, altresì, di considerare le categorie di macchine che impiegano l’AI, ad esempio: robot collaborativi; veicoli parzialmente automatizzati, sistemi di produzione adattivi.

In sintesi, Regolamento Macchine e AI Act garantiscono sicurezza integrata a fronte di:

  • Complementarità nella sicurezza – Il Regolamento Macchine si concentra sulla sicurezza fisica, mentre l’AI Act sulla sicurezza sistemica e sui diritti fondamentali.
  • Valutazioni di rischio coordinate – Le valutazioni di rischi, per macchine dotate di AI, devono considerare sia i rischi fisici sia quelli algoritmici.
  • Standard tecnici armonizzati – Si tratta di standard tecnici che integrano requisiti di sicurezza meccanica e algoritmica.

Ovviamente ogni azienda dovrà altresì considerare:

Normative settoriali – Diversi settori hanno regolamentazioni specifiche che influenzano l’implementazione dell’AI. Nel settore finanziario, ad esempio, la direttiva MiFID II ha implicazioni per l’uso dell’AI negli investimenti.

Normative nazionali – Oltre alle regole europee, molti paesi stanno sviluppando proprie normative sull’AI, creando un panorama normativo complesso che richiede un monitoraggio attento.

Italia: Disegno di legge AI – In fase di approvazione, disegna un perimetro invalicabile: la macchina suggerisce, assiste, ottimizza, ma non decide e che sottolinea come la responsabilità, penale e civile, resta saldamente nelle mani di chi produce, utilizza e controlla questi potenti strumenti. Pertanto, per navigare efficacemente questo ambiente normativo, le aziende dovranno prepararsi a:

  • Implementare un approccio proattivo – Le aziende dovrebbero anticipare i requisiti e iniziare l’implementazione in anticipo.
  • Creare team multidisciplinari – La compliance richiede competenze legali, tecniche ed etiche. È essenziale creare team che integrino queste diverse prospettive.
  • Documentare tutto – Mantenere una documentazione dettagliata di tutti i processi, decisioni e valutazioni è fondamentale per dimostrare la compliance.
  • Monitoraggio continuo – Le normative evolvono rapidamente. È necessario implementare processi di monitoraggio continuo per rimanere aggiornati sui cambiamenti normativi.

Conclusioni

L’AI rappresenta un’opportunità straordinaria per le PMI, ma sarà necessario implementarla con strategia, etica e visione a lungo termine. Inoltre, il successo nell’era dell’AI non dipenderà solo dalla tecnologia che scegliamo, ma da come la integriamo nella nostra cultura aziendale, da come formiamo i nostri team e da come manteniamo sempre al centro l’elemento umano. Tuttavia, ricordiamoci sempre che la vera innovazione nasce dall’equilibrio tra capacità tecnologiche e saggezza umana. È questo equilibrio che ci permetterà di costruire aziende non solo più efficienti, ma anche più etiche e sostenibili.

È doveroso evidenziare che il successo dell’AI nelle PMI richiederà investimenti significativi in risorse umane, tecnologie e processi, in grado di garantire un business sostenibile e responsabile, oltre che competitivo, in un mondo sempre più attento alla responsabilità sociale e ambientale della tecnologia senza dimenticare che, anche quando si parla di AI, si tratta sempre di garantire la cyber resilience, quale calibrata sintesi dei principi di risk management, business continuity e cybersecurity.

Articoli correlati