I sistemi di intelligenza artificiale sono ormai entrati a pieno ritmo anche nel mondo forense. Questa questione è interessante perché il giudice del merito, tra gli altri motivi, si è trovato di fronte alla circostanza per cui l’AI di ChatGPT avrebbe prodotto allucinazioni, citando negli atti di causa delle sentenze inesistenti.
Indice degli argomenti:
ChatGPT e allucinazioni: il primo caso in tribunale
Era prevedibile che prima o poi ci trovassimo di fronte a un caso del genere che, nel complesso, insegna qualcosa di molto importante.
I fatti di causa
Il tribunale di Firenze – nella sezione Imprese – si è trovato a dover decidere di un ricorso/reclamo contro il sequestro di beni contraffatti. Nello specifico il reclamante era il “titolare di un marchio italiano, caratterizzato dalla realizzazione grafica di una bocca e due occhi che corrispondono al disegno stilizzato di un carrello della spesa capovolto, inscritto all’interno di un cerchio sotto al quale appare il nome […], nonché del relativo domain name del sito web e di essere autore di una serie di vignette che rappresentano in chiave satirica vari noti prodotti commerciali, ha lamentato di aver scoperto che dette vignette sono state utilizzate senza alcuna autorizzazione” come si legge testualmente nella pronuncia del 14 marzo 2025.
Il difensore della società costituita nel controdedurre le varie argomentazioni, tuttavia, non si accorge che talune sentenze citate a supporto della sua tesi non sono mai esistite, o meglio nell’assegnare le ricerche alla collaboratrice di studio, la quale nell’effettuarle si era rivolta a ChatGPT, erano stati inseriti riferimenti giurisprudenziali del tutto inesistenti o meglio indicava dei numeri riferibili a sentenze della Corte di Cassazione il cui contenuto non aveva nulla a che vedere con le argomentazioni della tesi sostenuta.
In breve, pur riconoscendo l’omesso controllo sui risultati prodotti, l’avvocato difensore aveva chiesto lo stralcio dei riferimenti “allucinati”.
Il ragionamento del Collegio giudicante: no alla lite temeraria (ex art. 96 c.p.c.)
Il ragionamento del giudice limitatamente a questa doglianza si è mosso nel dire che atteso l’errore, e il mancato controllo da parte dell’avvocato, tuttavia, non è da ravvisarsi la malafede né l’intenzione di ingannare il collegio giudicante, e la sua dichiarazione espressa ne è (stata) la riprova.
No alla lite temeraria sostanzialmente per carenza di prova del danno. Infatti, il collegio giudicante ha testualmente ritenuto che “l’indicazione di estremi di legittimità nel giudizio ad ulteriore conferma della linea difensiva già esposta dalla difesa può considerarsi diretta a rafforzare un apparato difensivo già noto e non invece finalizzata a resistere in giudizio in malafede, conseguendone la non applicabilità delle disposizioni di cui all’art. 96 c.p.c.”
E poi proseguono testualmente i giudici “…quanto all’applicazione del comma 1 del cit. art. 96 c.p.c., in linea generale si ritiene che abbia natura extracontrattuale, poiché richiede pur sempre la prova, incombente sulla parte istante, sia dell’an e sia del quantum debeatur, o comunque postula che, pur essendo la liquidazione effettuabile di ufficio, tali elementi siano in concreto desumibili dagli atti di causa” (cfr. Cass., sez. L, sentenza n. 9080 del 15 aprile 2013) e, “pur recando in sé una necessaria indeterminatezza quanto agli effetti lesivi immediatamente discendenti dall’improvvida iniziativa giudiziale, impone, comunque, una, sia pur generica, allegazione della direzione dei supposti danni” (cfr. Cass., sez. II, sentenza n. 7620 del 26 marzo 2013). In applicazione di tali principi nel caso di specie, la domanda non può essere accolta, in quanto il reclamante non ha spiegato alcuna allegazione, neppur generica, dei danni subiti a causa dell’attività difensiva espletata della controparte”.
In parole più semplici, niente lite temeraria in questi casi. Semmai i risultati dell’AI possono ricondursi al fenomeno delle cd. “allucinazioni dell’intelligenza artificiale”, che si verifica quando l’AI inventa risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri.

AI e allucinazioni: cosa impariamo dalla ordinanza del tribunale di Firenze
Dalla pronuncia in parola impariamo che occorre sempre verificare tutto ciò che produce l’AI e che le “allucinazioni” di ChatGPT non sono affatto ipotesi remote, anzi, né diminuiscono in astratto la responsabilità del professionista.
Tuttavia, nel caso di specie, il Collegio giudicante pur riconoscendo il disvalore per l’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’AI, ne ha escluso la malafede del professionista, dal momento che – come si legge testualmente nell’ordinanza – “sin dal primo grado ha fondato la sua propria strategia difensiva sull’assenza di malafede nell’aver commercializzato le magliette raffigurante le vignette di (…) elemento che poi si era già trovato nel decreto emesso inaudita altera parte e che ha trovato riscontro anche nella successiva ordinanza cautelare”. Quindi, nonostante l’indicazione di riferimenti giurisprudenziali non veritieri cioè “allucinati”, la linea difensiva non faceva altro che rafforzare quanto già più che noto.