Anthropic, conosciuta per il suo modello di linguaggio Claude, ha pubblicamente accusato tre importanti laboratori di intelligenza artificiale cinesi — DeepSeek, Moonshot AI e MiniMax — di aver utilizzato “attacchi di distillazione su scala industriale” per migliorare i propri sistemi di AI.
Secondo l’azienda con sede a San Francisco, questi laboratori avrebbero:
- creato circa 24mila account fraudolenti;
- generato oltre 16 milioni di interazioni con Claude;
- utilizzato le risposte del modello per “addestrare e migliorare” i propri sistemi AI.
Anthropic sostiene che ciò sia accaduto in violazione dei suoi termini di servizio e delle restrizioni di accesso geografiche, dato che Claude non è disponibile commercialmente in Cina.
Indice degli argomenti:
Distillazione: pratica legittima o tecnica di copia?
La distillazione è una tecnica diffusa nel campo dell’AI, in cui un modello meno potente impara dai risultati di uno più avanzato. Usata correttamente, serve a creare versioni più leggere e meno costose di modelli complessi.
Tuttavia, Anthropic sostiene che:
- nell’episodio contestato questa tecnica è stata usata illecitamente per acquisire capacità avanzate senza investire tempo o risorse equivalenti;
- i modelli così ottenuti potrebbero non conservare le salvaguardie di sicurezza presenti negli originali, aumentando potenzialmente i rischi d’uso improprio.
Risvolti di sicurezza e geopolitici
Anthropic ha collegato questi presunti attacchi a preoccupazioni di sicurezza nazionale statunitense: modelli privi di controlli potrebbero essere sfruttati per scopi offensivi, divulgazione di disinformazione o uso in attività illegali come attacchi informatici o sviluppo di armi biologiche.
Queste accuse arrivano mentre gli Stati Uniti stanno discutendo l’inasprimento delle restrizioni all’esportazione di chip AI avanzati verso la Cina, politiche già oggetto di dibattito nell’alta tecnologia.
In parallelo, anche OpenAI – sviluppatore di ChatGPT – ha espresso preoccupazioni simili nei confronti di DeepSeek, sostenendo che stia tentando di “approfittare” delle tecnologie sviluppate da gruppi statunitensi.
Le risposte delle controparti e le reazioni del settore
Fino ad ora né DeepSeek, né Moonshot AI, né MiniMax hanno rilasciato dichiarazioni ufficiali in merito alle accuse.
Nel dibattito pubblico, alcuni commentatori criticano la posizione di Anthropic come ipocrita o protezionistica, ricordando che molte grandi aziende USA utilizzano dati e contenuti di terze parti per l’addestramento dei propri modelli, sostenendo che le accuse rispecchino tensioni più ampie nel settore globale dell’AI.
Cosa succede adesso? Il futuro del confronto AI
Le accuse di Anthropic intensificano un confronto tecnologico e normativo in corso tra Stati Uniti e Cina, con implicazioni su:
- proprietà intellettuale e diritti sui modelli AI;
- strategie di governance globale sull’intelligenza artificiale;
- politiche di controllo delle esportazioni tecnologiche.
Molti osservatori ritengono che questo episodio possa accelerare la creazione di framework internazionali di regolamentazione dell’AI, così come rafforzare l’attenzione sulla sicurezza e trasparenza dei modelli.
Anthropic contro i laboratori cinesi: tutela dell’innovazione o nuova arma nella guerra tecnologica?
Le accuse di Anthropic contro DeepSeek, Moonshot AI e MiniMax segnano un ulteriore punto di escalation nella competizione globale sull’intelligenza artificiale. Ma al di là del linguaggio duro — “attacchi di distillazione su scala industriale” — la vicenda impone una riflessione più ampia su proprietà intellettuale, vantaggio competitivo e ipocrisie sistemiche del settore.
Distillazione: furto o dinamica inevitabile?
La distillazione non è, in sé, un crimine tecnologico. È una tecnica consolidata che consente di trasferire conoscenza da un modello grande a uno più piccolo, ottimizzando costi e prestazioni. Il nodo è come viene fatta: se attraverso scraping aggressivo, creazione di account fraudolenti e violazione dei termini di servizio, il problema è legale prima ancora che tecnico.
Tuttavia, l’intero ecosistema dell’AI si muove su un terreno scivoloso. Molti modelli occidentali – inclusi quelli di OpenAI – sono stati addestrati su enormi quantità di dati online, spesso senza consenso esplicito degli autori. La linea tra “apprendimento legittimo” e “appropriazione indebita” è diventata più politica che giuridica.
Export control e incentivo all’aggiramento
Il contesto geopolitico è determinante. Le restrizioni statunitensi all’export di chip avanzati, in particolare quelli di Nvidia, hanno reso più difficile per le aziende cinesi accedere alla potenza computazionale necessaria per competere. In questo scenario, la distillazione diventa una scorciatoia strategica: meno GPU, più ingegneria inversa.
Anthropic sostiene che tali pratiche “minano” l’efficacia dei controlli. Ma è quasi inevitabile che, quando si chiude una via tecnologica, il mercato ne cerchi un’altra. La storia dell’innovazione è piena di casi in cui restrizioni e sanzioni hanno accelerato l’autosufficienza del Paese colpito.
Sicurezza nazionale: rischio reale o argomento retorico?
Il passaggio più delicato è quello sulla sicurezza. Anthropic afferma che modelli ottenuti tramite distillazione illecita potrebbero non mantenere le salvaguardie contro usi malevoli — dal bioterrorismo agli attacchi cyber. È un punto serio: i “guardrail” sono parte integrante del valore dei modelli occidentali.
Ma anche qui la questione è ambivalente. La sicurezza dei modelli non dipende solo dalla loro origine, bensì dalla governance e dai controlli implementati a valle. Se il rischio è la proliferazione di AI meno controllate, allora il problema è globale, non solo cinese.
Competizione o frammentazione?
La vicenda evidenzia una frattura crescente tra ecosistemi tecnologici. Da un lato, le aziende statunitensi cercano di difendere un vantaggio costruito su capitali enormi e accesso privilegiato a hardware avanzato. Dall’altro, i player cinesi puntano su efficienza, open source e ottimizzazione dei costi.
Il rischio, per il mercato globale, è la frammentazione: due blocchi tecnologici separati, con standard, modelli e normative incompatibili. Per gli investitori e per le imprese, ciò significa meno interoperabilità e maggiore incertezza regolatoria.
Conclusioni
La domanda centrale non è se Anthropic abbia ragione — le indagini e le eventuali prove lo stabiliranno — ma cosa riveli questa vicenda.
Rivela che l’AI non è più solo una corsa all’innovazione: è una battaglia per il controllo delle filiere, dei dati e delle infrastrutture.
E quando l’innovazione diventa geopolitica, la linea tra difesa legittima e protezionismo strategico si fa sempre più sottile.







