ChatGPT, il modello linguistico di grandi dimensioni (LLM) sviluppato da OpenAI è ormai una presenza consolidata nei luoghi di lavoro di tutto il mondo, con 71 milioni di utenti giornalieri. Ma mentre datori di lavoro e team di sicurezza iniziavano a familiarizzare con questa nuova applicazione diffusa, sono emersi diversi modelli concorrenti.
In particolare, DeepSeek ha suscitato accese discussioni dal suo arrivo sul mercato nel 2024. La velocità e il costo della sua creazione hanno portato molti a mettere in discussione le sue capacità e sicurezza, mentre la proprietà cinese ha sollevato problemi di privacy e censura.
La rapidità con cui ha guadagnato terreno tra gli utenti fa sorgere anche una domanda più estesa: come possono i team di sicurezza tenere il passo con LLM in rapida crescita, facilmente accessibili e potenzialmente rischiosi?
Una cosa è certa: l’evoluzione tecnologica non può invertire la sua rotta. AI generativa e LLM sono qui per restare – e probabilmente si evolveranno ancora più velocemente di qualsiasi altra tecnologia disponibile finora. Data la loro ubiquità sul posto di lavoro, imporre divieti assoluti ai dipendenti non è realistico né probabilmente efficace.
Al contrario, le aziende sono chiamate a impegnarsi per comprendere i rischi che comportano e operare per proteggerne il più possibile l’utilizzo, senza incidere sulla produttività dei dipendenti.
Indice degli argomenti:
Non perdere il controllo dei propri dati
Non c’è dubbio che gli LLM comportino rischi per ogni organizzazione. Sappiamo che gli attori delle minacce utilizzano ChatGPT e altri strumenti per perfezionare i loro messaggi, tradurre esche per entrare in nuovi mercati internazionali e raggiungere milioni di potenziali vittime con molto meno sforzo di prima.
DeepSeek, nel frattempo, è già stata oggetto di numerosi incidenti informatici, tra cui un attacco su larga scala nel 2025 che ha esposto oltre un milione di record sensibili, dati operativi e dettagli di sistema.
Tuttavia, ChatGPT, DeepSeek e la lunga serie di modelli LLM che inevitabilmente seguiranno non accedono ai dati da soli, ma è solo quando le persone li copiano e incollano all’interno del modello, o digitano prompt, che vi hanno accesso in modo effettivo.
Per sua stessa ammissione, DeepSeek “può raccogliere il tuo input di testo, prompt, file caricati, feedback, cronologia chat o altri contenuti che fornisci al nostro modello e servizi”. E con un numero crescente di LLM sul mercato, possiamo essere certi che non sia l’unico a svolgere tali attività.
In definitiva, se non si monitora attivamente quali applicazioni vengono utilizzate dai dipendenti – e quali informazioni vengono condivise – non c’è alcun modo di sapere quanti dei dati vengano archiviati al di fuori delle protezioni aziendali, trovandosi, di conseguenza potenzialmente a rischio.

Abbinare produttività e sicurezza
Il primo passo per proteggere i dati aziendali è capire dove sono, dove stanno andando e chi li sta trasferendo. In particolare, è fondamentale identificare e classificare quelli sensibili, come informazioni personali, proprietà intellettuale e dati regolamentati.
Successivamente, vanno messi in atto controlli per tracciare e, se necessario, limitare il modo in cui questi dati si muovono in azienda – in particolare come vengono condivisi con applicazioni di terze parti come gli LLM. Ciò potrebbe significare imporre limiti di copia/incolla sui prompt che possono essere inseriti in ChatGPT.
Utilizzando estensioni sicure del browser, è anche possibile bloccare la condivisione di file e immagini con tali applicazioni. Si possono attivare avvisi in tempo reale per mettere in guardia gli utenti dal compiere determinate azioni e che rimandano a policy sull’utilizzo accettabile.
Inoltre, l’acquisizione di metadati e screenshot durante le interazioni degli utenti con gli LLM può fornire visibilità sulle tipologie di dati condivisi e il contenuto di qualsiasi prompt.
I rischi per le aziende
Il problema principale della shadow AI in tema di sicurezza risiede nell’uso non autorizzato e non regolamentato di strumenti di intelligenza artificiale da parte dei dipendenti, al di fuori dei processi e delle policy aziendali ufficiali. Questo fenomeno comporta diversi rischi critici, tra cui:
- Perdita di controllo sui dati e fughe di informazioni: i dipendenti possono inserire dati aziendali sensibili, personali di clienti o dipendenti, segreti industriali, codice sorgente, e documenti riservati in strumenti AI non autorizzati, esponendoli a potenziali divulgazioni esterne e violazioni della privacy.
- Violazioni di sicurezza: l’adozione di soluzioni di AI non controllate dal reparto IT può introdurre vulnerabilità infrastrutturali, aprendo la porta ad attacchi informatici e accessi non autorizzati.
- Non conformità: l’utilizzo non regolamentato dell’AI può portare a violazioni di normative come il GDPR o la direttiva NIS2, con conseguenti sanzioni legali e danni reputazionali.
- Inefficienze operative e frammentazione tecnologica: la mancanza di coordinamento centrale genera eccesso di sforzi, sprechi di risorse e incoerenze nei processi aziendali basati su AI.
- Difficoltà di rilevazione e gestione del rischio: essendo spesso invisibile ai sistemi di monitoraggio aziendali, la Shadow AI rende complesso identificare e mitigare tempestivamente le minacce connesse.
La shadow AI rappresenta un pericolo nascosto che può compromettere sicurezza dei dati, conformità, reputazione ed efficienza operativa delle aziende, richiedendo l’adozione di strategie di governance, formazione e controllo per limitarne i rischi
Come mantenerne il controllo della shadow AI
È fondamentale che tutti i controlli messi in atto siano efficaci su LLM e applicazioni di GenAI – non solo su quelli ufficialmente utilizzati, affinché si ottenga visibilità sull’intera shadow AI.
Per questo, è importante disporre di soluzioni DLP specializzate, in grado di coprire una grande varietà di modelli, per monitorare l’attività in base a utente, gruppo o dipartimento e identificare qualsiasi applicazione che acceda a dati aziendali, e-mail, calendari e simili.
Una volta compreso dove sono i dati sensibili aziendali, e come si stanno muovendo, è possibile indirizzare la formazione sugli utenti che presentano il rischio più elevato.
Oltre alle policy che regolano gli usi consentiti degli LLM e i tipi di dati che possono essere condivisi, è importante anche assicurarsi che tutte le risorse in azienda comprendano i rischi connessi al loro utilizzo.
Come spesso accade nella cybersecurity, i dati non escono dall’azienda in autonomia, ma sono le persone stesse a spostarli lungo un determinato percorso. Solo attraverso una formazione continua sulla consapevolezza, strumenti avanzati e policy chiare sarà possibile adottare misure adeguate a mantenere i dati sotto controllo.




