scenari

Anthropic evita un processo disastroso: raggiunto un accordo storico con milioni di autori



Indirizzo copiato

Siglato un accordo preliminare con un gruppo di autori in una massiccia class action per uso di opere coperte da copyright nella formazione dell’intelligenza artificiale. Il patteggiamento, considerato storico, permetterà di evitare potenziali danni legali fino a oltre mille miliardi di dollari. La sentenza preliminare è attesa entro i primi giorni di settembre

Pubblicato il 27 ago 2025



Anthropic accordo storico

La startup di intelligenza artificiale Anthropic ha intenzione di porre fine al lungo contenzioso legale con autori come Andrea Bartz, Charles Graeber e Kirk Wallace Johnson, dopo essere stata accusata di aver usato milioni di libri – persino presi da biblioteche “ombra” come LibGen – per addestrare i suoi modelli, senza autorizzazioni né compensi.

A giugno, il giudice William Alsup ha riconosciuto che l’utilizzo dei testi poteva essere considerato fair use, ma l’acquisto dei libri per formare una “biblioteca centrale” di materiali piratati ha sbloccato la possibilità di procedere per violazione del copyright.

Evitato un enorme rischio finanziario

La posta in gioco era altissima: con circa 7 milioni di opere coinvolte, le richieste di danno per pirateria avrebbero potuto tradursi in cifre da capogiro, superando i migliaia di miliardi di dollari, con punte fino a 150mila dollari per opera in caso di infrazione voluta. Tale esposizione finanziaria ha spinto Anthropic a cercare una via d’uscita prima del previsto processo di dicembre.

La startup di intelligenza artificiale intende chiudere così una class action miliardaria con gli autori statunitensi, evitando un processo che avrebbe potuto travolgere l’intero settore. L’accordo segna un precedente importante nel rapporto tra innovazione tecnologica, diritto d’autore e governance globale dell’AI.

L’accordo raggiunto

Il patteggiamento è stato formalizzato con un’intesa preliminare, definita “storica” dall’avvocato degli autori, Justin Nelson, che ha sottolineato come tutti i membri della class action ne trarranno beneficio. Il patteggiamento dovrebbe essere finalizzato entro i primi giorni di settembre, probabilmente fra il 3 e il 5 come scadenza per la richiesta di approvazione preliminare del tribunale.

L’accordo raggiunto da Anthropic non ha il sapore di una vittoria, piuttosto è una pausa strategica in una guerra legale nel ridefinire i confini tra fair use e sfruttamento mascherato.

“Senza questo accordo, di cui non si conoscono ancora i termini, Anthropic sarebbe stata condannata a pagare per le copie pirata utilizzate”, commenta l’avvocato Luciano Daffarra, esperto di diritto d’autore. “Adesso, anche altre cause verranno transate e tutto il materiale pirata rimarrà ai gestori dei modelli di AI. Intanto, l’Unione Europa si preoccupa di privacy e di legittima provenienza dei materiali utilizzati per addestrare i modelli di AI e si investono 40 miliardi di dollari per acquistare tecnologia AI dagli USA, senza avere un solo motore capace di servire i cittadini dell’UE. Siamo sopraffatti da USA e Cina e a breve saremo fuori dai mercati rilevanti.”

Le implicazioni per tutto il settore AI

Sebbene il patteggiamento non costituisca un precedente giuridico vincolante, è destinato a influenzare le dispute future tra società di AI e creatori, rendendo più stringenti i criteri di raccolta dati per l’addestramento dei modelli.

Si tratta solo di uno dei molti casi in corso: ad esempio, Universal Music Group e altri editori musicali stanno portando Anthropic in tribunale anche per presunte violazioni sul fronte dei testi di canzoni.

Un accordo e non una chiusura normativa

Gli autori potranno vantare un risultato significativo: non solo un risarcimento, ma anche un riconoscimento di responsabilità. Tuttavia, restano aperti i grandi interrogativi sulle modalità di formazione delle AI e sul diritto d’autore, tematiche che richiederanno soluzioni normative e tecniche più robuste.


Prospettive:

  • Settembre: attesa della conferma giudiziaria del patteggiamento.
  • Sviluppi futuri: monitoraggio delle cause similari in corso, regolamentazioni emergenti.
  • Settore AI: probabile aumento di trasparenza e accordi preventivi con i titolari dei diritti per evitare contenziosi in futuro.

Un settore sotto accusa

Il patteggiamento di Anthropic non chiude il dibattito, ma lo rilancia: anche altri colossi dell’AI sono finiti nel mirino. Autori, giornalisti, musicisti ed editori sostengono che le loro opere siano state usate per addestrare modelli senza consenso né compenso.

  • OpenAI è accusata da The New York Times e da altri editori di aver sfruttato articoli giornalistici per addestrare ChatGPT.
  • Meta è sotto processo per aver incluso milioni di post e testi in dataset come Books3.
  • Microsoft e GitHub hanno dovuto affrontare contestazioni sul codice usato per addestrare Copilot.
  • Google è stata citata per il dataset C4, che conterrebbe opere protette da copyright raccolte da siti web senza autorizzazione.

Il cuore del dibattito: cos’è “fair use”?

Il concetto chiave è il fair use, un principio della legge USA che consente l’uso limitato di opere protette senza autorizzazione, per scopi come critica, insegnamento o ricerca. Le aziende tech sostengono che l’addestramento dei modelli ricada in questa eccezione, perché non riproduce direttamente i testi ma ne “apprende” i pattern.

I giudici, però, stanno iniziando a distinguere:

  • l’uso astratto dei testi potrebbe rientrare nel fair use;
  • ma il reperimento massivo e non autorizzato di milioni di opere, spesso da fonti pirata, rischia di configurarsi come violazione diretta del copyright.

Il caso Anthropic ha reso evidente questa differenza: addestrare un modello può essere “fair”, ma creare una biblioteca di ebook piratati no.


Rischi economici senza precedenti

Le cifre in ballo sono colossali. Le leggi USA prevedono fino a 150mila dollari di danni per ogni opera in caso di violazione intenzionale. Con dataset da milioni di titoli, il conto teorico supera facilmente il trilione di dollari.

Questa prospettiva ha due effetti immediati:

  • spinge le aziende a negoziare accordi prima di arrivare in aula;
  • apre la strada a un nuovo mercato di licenze collettive per addestrare i modelli AI, simile a quello già esistente per musica e cinema.

Il precedente Anthropic e i possibili scenari

L’accordo non stabilisce un principio giuridico vincolante, ma potrebbe diventare un precedente commerciale: in futuro, le startup e i big tech potrebbero optare per intese preventive con autori ed editori.

Per gli scrittori e i musicisti, invece, si apre una stagione di riconoscimento e monetizzazione: il settore creativo ha ora strumenti concreti per chiedere compensi.


Verso una nuova regolamentazione

Il vuoto normativo è il vero terreno di scontro. Negli Stati Uniti, il Congresso sta valutando proposte per chiarire cosa rientri nel fair use, mentre in Europa il dibattito è collegato all’AI Act, che prevede obblighi di trasparenza sui dataset.

La direzione sembra chiara: maggiore tracciabilità, accordi di licenza, e forse un futuro in cui i modelli AI pagheranno “royalty” ai creatori, come avviene nelle piattaforme di streaming.

Articoli correlati