Nel 2024 l’Unione Europea ha approvato l’AI Act, il primo regolamento orizzontale sull’intelligenza artificiale al mondo, che “stabilisce norme armonizzate in materia di intelligenza artificiale” e introduce requisiti di trasparenza, gestione del rischio e sorveglianza umana lungo il ciclo di vita dei sistemi di AI. L’entrata in vigore è scaglionata tra il 2025 e il 2027 per gli usi ad alto rischio.
Intanto, allineandosi al nuovo quadro europeo, l’Italia ha approvato la legge 132/2025 – entrata in vigore a ottobre – che regola l’applicazione dell’AI in ogni settore economico del Paese.
Per la direzione legale questa cornice normativa si traduce in due urgenze: da un lato, rendere tracciabili e controllabili i processi contrattuali; dall’altro, governare l’intelligenza artificiale legale con criteri di sicurezza dei dati, auditabilità e responsabilità umana. Due sfide sempre più pressanti, considerato che i segnali di adozione nel mondo corporate crescono: l’Association of Corporate Counsel (Acc), su un campione globale di 657 professionisti in-house, rileva infatti che l’uso della GenAI “è più che raddoppiato in un solo anno” e che “il 91% indica l’efficienza come principale beneficio”.
Circa il 50–55% delle funzioni legali corporate ha già adottato un CLM (variabile per settore e dimensione aziendale), e molte organizzazioni hanno effettuato investimenti in questo settore negli ultimi 3-5 anni (Fonte Financial Times).

Indice degli argomenti:
L’AI al servizio dei contratti: funzionalità e vantaggi per il business
La gestione del ciclo di vita dei contratti (Contract Lifecycle Management) è uno degli ambiti in cui l’intelligenza artificiale legale mostra risultati tangibili: modelli linguistici e pipeline di NLP estraggono clausole, incrociando benchmark interni e policy, rilevano incongruenze, segnalano obblighi, monitorano scadenze e producono riepiloghi esecutivi. Il beneficio non è solo operativo: migliore qualità dei dati contrattuali significa decisioni più rapide e informate da parte del business.
In questo scenario, DiliTrust rappresenta un caso concreto: la piattaforma, progettata per le direzioni legali in-house, integra Lini, la sua AI proprietaria focalizzata su sicurezza, governance e continuità operativa. La funzionalità AI Risk Detector identifica automaticamente clausole rischiose, applica regole interne di compliance e propone alternative conformi, con l’obiettivo di accelerare le revisioni e diminuire i rallentamenti legali nei processi di negoziazione.
Drafting e revisione automatica: precisione e velocità nella redazione.
L’automazione del drafting consente alla direzione legale di partire da modelli approvati, adattarli al caso concreto e ricevere suggerimenti di riscrittura che allineano tono, definizioni e clausole agli standard interni. La revisione automatica, basata su modelli di linguaggio (LLM) e NLP, mette in evidenza clausole fuori soglia o incoerenti, offrendo spiegazioni e alternative.
DiliTrust posiziona questa capacità a supporto del controllo umano, riducendo i tempi di primo passaggio da ore a minuti nei casi ripetitivi, con tracciabilità dei suggerimenti generati e dei cambi accettati.
Analisi intelligente del rischio contrattuale: individuare e mitigare le clausole critiche
L’analisi del rischio contrattuale è sempre più proattiva: algoritmi di ranking valutano durata, giurisdizione, limitazioni di responsabilità, penali, change-of-control, standard di servizio. Il valore finanziario di una gestione contrattuale non ottimale è noto: gli studi di World Commerce & Contracting (WorldCC) hanno quantificato storicamente un’erosione media del valore del 9,2% per carenze nella gestione del contratto; ricerche più recenti indicano un miglioramento, ma stimano tuttora perdite medie dell’8,6% recuperabili con processi e strumenti migliori.
Su questo fronte, il Risk Detector di DiliTrust applica policy e regole configurabili per segnalare le aree “red flag”, aiutando la direzione legale a concentrare il tempo dei giuristi sulle clausole davvero critiche, mentre il sistema presidia i check ripetitivi e la coerenza con i playbook.
Efficienza operativa e ROI: misurare l’impatto dell’automazione legale
Misurare l’impatto significa collegare l’adozione dell’AI a indicatori concreti: ciclo medio di negoziazione, tasso di rilavorazione, Sla di approvazione, scadenze e obblighi monitorati, contenziosi evitati. La letteratura sul valore economico dei contratti ricorda che l’erosione di valore è reale e misurabile; un percorso di contracting excellence può tradursi in ROI significativo, come discusso nei report WorldCC sul recupero di valore nella gestione dei contratti.

Tecnologia e dati: gli strumenti che abilitano l’intelligenza contrattuale
La solidità dei risultati dipende dalla qualità dei dati. Diverse ricerche Idc stimano che la quota preponderante dei dati aziendali (il 90%) sia non strutturata (documenti, e-mail, pdf, note, file multimediali): portare questi contenuti “legacy” in un formato leggibile da algoritmi è decisivo per il successo dei progetti di AI.
LLM (Large Language Model) e NLP: la comprensione del linguaggio legale
La comprensione del linguaggio giuridico è stata accelerata da benchmark e dataset specifici per i contratti. Il Cuad (Contract Understanding Atticus Dataset), con 13.000 annotazioni su 510 contratti e 41 categorie di clausole, è diventato un riferimento per l’estrazione e la classificazione automatica; LegalBench mappa attività di “issue-spotting”, interpretazione e ragionamento per valutare i modelli su compiti vicini alla pratica. Questi lavori hanno spinto l’adozione di architetture Transformer e pipeline di fine-tuning/contesto (Rag) mirate al dominio legale.
Private vs. open AI: sicurezza e gestione della riservatezza dei dati sensibili
Il fattore fiduciario è centrale: i dati contrattuali contengono informazioni sensibili (prezzi, Sla, clausole negoziali, IP). Per questo molte direzioni legali privilegiano soluzioni di AI “private” o in ambienti controllati, con governance, auditing e segregazione dei dati. L’AI Act richiede trasparenza e gestione del rischio per i sistemi ad alto impatto, mentre associazioni professionali come l’American Bar Association raccomandano di rispettare doveri deontologici di competenza e riservatezza nell’uso di strumenti di AI.
DiliTrust si colloca in questo solco: la piattaforma è presentata come AI-native per la direzione legale, con attenzione a sicurezza, controllo e tracciabilità degli output dei modelli e senza riuso dei dati dei clienti per addestrare modelli esterni.
Dall’Ocr al machine learning: strutturare i documenti legacy
Il passaggio chiave, spesso sottovalutato, è la strutturazione dei documenti legacy. Le pipeline che combinano Ocr avanzato e ML estraggono metadati e clausole, trasformando archivi eterogenei in corpora interrogabili su cui applicare classificazione, ricerca semantica e analisi predittiva del rischio. Questo “data foundation” è essenziale: senza dati puliti e indicizzati, l’intelligenza artificiale legale resta un potenziale inespresso. Le evidenze di mercato e gli studi Idc sul DataSphere confermano che la quota non strutturata cresce e rende prioritario investire in data readiness.
Il nuovo ruolo del giurista: da esecutore a stratega digitale
L’AI non sostituisce la competenza interpretativa: la amplifica. Il giurista interno diventa data-legal strategist, capace di selezionare gli use case, definire playbook e Kpi, impostare policy di utilizzo, scegliere la modalità di addestramento sicura (private vs. open), gestire il ciclo di approvazione e misurare il ritorno per l’impresa.
Il giurista 4.0: nuove competenze e l’alleanza tra tech e diritto
La direzione legale oggi integra competenze di product ownership e data governance. Secondo l’Acc, oltre a una crescita netta dell’adozione, le direzioni legali vedono nella GenAI un fattore per riportare attività a più alto valore in-house: un salto di maturità che richiede formazione continua, collaborazione con IT e risk management, e una catena di controllo umano sugli output.
La reazione del sistema: università e associazioni (Aiga, Cnf) per la formazione ibrida
La risposta del sistema formativo e associativo punta su percorsi ibridi tra diritto e tecnologia, anche per allineare le competenze ai requisiti del nuovo quadro europeo. L’evoluzione regolatoria in atto – con tappe già operative dell’AI Act e lo sviluppo di norme nazionali – rende la formazione continua un requisito non negoziabile per la funzione.
Le sfide di governance e l’etica dell’intelligenza artificiale nella direzione legale
La governance dell’AI in ambito contrattuale deve prevedere valutazioni d’impatto, gestione dei bias, explainability, audit trail e supervisione umana: principi ribaditi dal regolatore europeo e coerenti con le linee guida deontologiche internazionali. In concreto: definire policy d’uso, stabilire ruoli e responsabilità, registrare prompt e revisioni, effettuare test di robustezza e predisporre meccanismi di escalation nelle fasi negoziali più sensibili.
In questo percorso, piattaforme come DiliTrust – con un’AI proprietaria, funzioni dedicate a drafting, revisione e risk detection, e un’impostazione privacy-first – offrono alla direzione legale un ambiente controllato per scalare l’automazione senza sacrificare la governance. La sfida non è solo tecnologica: è di metodo e cultura. E inizia dai dati, dalle policy e dalla capacità del giurista di guidare, davvero, la trasformazione.






