Anthropic ha siglato un accordo da 1,5 miliardi di dollari per chiudere una class action intentata da autori che li accusavano di aver utilizzato libri piratati per addestrare Claude. La cifra equivale a circa 3.000 dollari per titolo, con possibilità di essere incrementata se emergono altri titoli coinvolti
È considerato il più grande risarcimento per violazione del copyright nella storia statunitense e la prima intesa significativa di questo tipo nel contesto dell’intelligenza artificiale.
Indice degli argomenti:
Il quadro giudiziario
Nel giugno 2025, il giudice William Alsup stabilì che l’uso di libri legalmente acquistati per addestrare modelli IA può rientrare nel concetto di fair use, tutelando le aziende da un divieto netto. Tuttavia, il problema riguarda l’archiviazione di milioni di libri piratati in una “biblioteca centrale”, cosa che secondo il giudice sì configura come violazione.
L’accordo raggiunto è dunque una strategia per evitare un processo potenzialmente disastroso, con risarcimenti che avrebbero potuto superare i miliardi o persino il trilione di dollari.
Criticità sollevate dal giudice
Durante l’udienza dell’8 settembre 2025, il giudice Alsup si è mostrato scettico sull’accordo, evidenziando possibili insufficienze nella trasparenza del processo di richiesta di risarcimento e il ruolo potenzialmente eccessivo di gruppi influenti come l’Authors Guild e l’Association of American Publishers. Ha fissato scadenze precise: il 15 settembre per la lista definitiva dei libri interessati, e il 22 per un esempio di modulo di adesione, con una nuova audizione programmata per il 25 settembre.
Le conseguenze per il modello Claude
L’accordo richiede l’eliminazione dei file illegali presenti nei server di Anthropic. Tuttavia, non impone la rimozione dei dati già assimilati da Claude, evitando così la necessità di resettare o rifare il modello, operazione sia tecnica che costosa.
Un precedente che protegge il settore, ma non gli autori
L’intesa concede una vittoria simbolica per gli autori, ma il settore tecnologico esce pressoché intatto: il fair use è confermato per testi legalmente acquisiti, e le AI possono proseguire il loro sviluppo su basi legittime.
Il risarcimento – sebbene considerevole – supera il valore di copertina dei libri coinvolti (~214 dollari a volume), mentre l’esborso economico per Anthropic, di fatto, può essere visto come un “costo operativo” piuttosto che un’ammissione di colpa.
Valutazione aziendale e outlook futuro
Nonostante lo scottante contenzioso, la valutazione di mercato di Anthropic ha continuato a salire, attestandosi a circa 183 miliardi di dollari, segnale della fiducia degli investitori nel potenziale di Claude e dell’intero ecosistema AI.
L’intesa, inoltre, apre la strada a possibili accordi simili in futuro, sia con OpenAI, Meta, Microsoft e altri big dell’AI, contribuendo a definire nuovi standard per i dati di training e la legalità della loro acquisizione.
In sintesi
L’accordo da 1,5 miliardi è un trionfo mediatico per gli autori e un precedente legale significativo. Tuttavia, sostanzialmente, consente ad Anthropic di continuare – quasi indisturbata – a espandere Claude, rafforzando un trend già in atto: la tecnologia AI avanza protetta, mentre il fronte dei creatori ottiene concessioni simboliche ma pragmatica.





