scenari

Anthropic, il grande rifiuto a Trump: che c’è in ballo



Indirizzo copiato

Anthropic respinge la clausola del Pentagono che chiede a Claude libertà d’uso “per qualsiasi scopo lecito”. L’azienda indica due linee rosse: sorveglianza di massa e armi autonoma. Ma qui si gioca anche l’allineamento generale dell’AI a valori etici umani e il suo ruolo bellico

Pubblicato il 27 feb 2026

Alessandro Longo

Direttore AI4business.it e Agenda Digitale



anthropic pentagono

Anthropic, l’azienda di Claude, ieri ha respinto l’ultimatum del Dipartimento della Difesa (oggi rebrandizzato come “Department of War” dall’amministrazione Trump) che chiedeva accesso “per qualsiasi uso lecito” ai suoi modelli, compresi scenari di sorveglianza di massa interna e armi completamente autonome. In risposta, il Pentagono minaccia di cancellare un contratto fino a 200 milioni di dollari, classificare la società come “rischio per la supply chain” e, in ultima istanza, usare il Defense Production Act per forzarne la mano.

È una partita aperta, che bisogna seguire con attenzione, per chiunque ha a cuore le sorti di un uso etico dell’AI. Va ben oltre infatti il destino di Anthropic.

Il braccio di ferro Anthropic – Pentagono: dall’ultimatum alla rottura

A inizio settimana il segretario alla guerra Pete Hegseth ha dato ad Anthropic un ultimatum: entro venerdì l’azienda avrebbe dovuto accettare che il modello Claude potesse essere impiegato in qualunque contesto “legalmente consentito”, o rischiare la perdita dell’intero rapporto con il governo federale.

Secondo ricostruzioni convergenti di Associated Press, Reuters e altri media, l’ultimatum prevede tre leve principali:

  • rescissione del contratto quadro da circa 200 milioni di dollari firmato nel 2025;
  • possibile designazione di Anthropic come “supply chain risk”, etichetta finora usata contro fornitori considerati vicini ad avversari strategici degli Stati Uniti;
  • eventuale ricorso al Defense Production Act (DPA), legge della guerra di Corea che consente alla Casa Bianca di ordinare a un’azienda di fornire beni o servizi ritenuti essenziali per la sicurezza nazionale.

Il Pentagono ha anche iniziato a sondare i grandi contractor della difesa – da Lockheed Martin a Boeing – per capire quanto le loro catene di fornitura dipendano oggi da Claude.

Sul piano operativo, Claude Gov – la versione custom per la sicurezza nazionale – è oggi l’unico modello di frontiera in uso nei sistemi classificati della difesa statunitense, in gran parte grazie a una partnership con Palantir e Amazon Web Services.

La frizione è esplosa dopo che Claude è stato usato in un’operazione militare per catturare il presidente venezuelano Nicolás Maduro: una missione ad alta intensità che, secondo varie ricostruzioni, avrebbe causato decine di vittime e fatto emergere dubbi – interni all’azienda – sulle modalità di impiego del modello.

Cosa vuole il Pentagono dalle aziende di AI

La posizione ufficiale del Dipartimento della Difesa o “Department of War”, è che solo le forze armate possono decidere quando e come usare un’arma o uno strumento tecnologico, purché nel quadro della legge.  

Da qui la richiesta di inserire in tutti i contratti di AI una clausola standard: i modelli devono poter essere usati per “qualsiasi scopo lecito”, senza eccezioni negoziate caso per caso con il fornitore.

Il Pentagono ha dichiarato che non ha intenzione di utilizzare questa tecnologia per i due scopi vietati dall’azienda, ma che un appaltatore privato non può decidere come i suoi strumenti saranno utilizzati legalmente per la sicurezza nazionale, proprio come un produttore di armi non determina dove saranno lanciati i suoi missili. Anthropic, come in realtà altri nella Silicon Valley, rifiutano però l’idea che l’AI, con tutte le sue potenzialità, sia riducibile alla natura di un missile.

Funzionari del Pentagono sostengono che introdurre paletti specifici per ogni vendor renderebbe ingestibile la pianificazione operativa e creerebbe precedenti pericolosi anche su altri sistemi d’arma.  

I vertici militari insistono che non intendono usare l’AI per sorveglianza di massa dei cittadini statunitensi o per armi letali prive del controllo umano, e che il rispetto del diritto internazionale umanitario resta responsabilità della catena di comando, non dei fornitori di tecnologia.  

In pratica però il Department of War rifiuta di mettere questi limiti per iscritto nei contratti. La richiesta è: fidatevi dei nostri processi interni, lasciateci “mani libere” sugli scenari d’uso, e limitatevi a garantire che il modello funzioni.

Nel frattempo il Pentagono si sta già preparando a un mondo senza Claude Gov sui suoi sistemi classificati. Ha siglato un accordo con xAI per portare il modello Grok nella rete classificata, e secondo varie fonti è “vicino all’intesa” con Google per usare Gemini negli stessi contesti, mentre i negoziati con OpenAI procedono più lentamente.

Nonostante questo, analisi di stampa vicine alla difesa indicano che sostituire completamente Claude nei flussi di lavoro operativi richiederebbe mesi, e che molti ufficiali considerano ancora i modelli Anthropic tecnologicamente superiori alle alternative oggi sul tavolo.

La linea rossa di Anthropic verso il Governo Usa e non solo: sorveglianza di massa e armi autonome

Nel suo statement ufficiale, il ceo Dario Amodei ribadisce due punti chiave.

Primo: Anthropic non è “contro” l’uso militare dell’AI. Al contrario, rivendica di essere stata:

  • la prima big dell’AI a distribuire modelli su reti classificate del governo;
  • la prima a offrire modelli custom per la sicurezza nazionale;
  • un attore che ha rinunciato a “centinaia di milioni di dollari” tagliando clienti legati al Partito comunista cinese e contrastando campagne di distillazione illegale delle capacità di Claude.

Secondo: ci sono due soli scenari che l’azienda non è disposta a supportare, nemmeno per il principale cliente al mondo in ambito difesa:

  • Sorveglianza di massa domestica. Anthropic accetta l’impiego dell’AI in ambito di intelligence estera e controspionaggio, ma giudica incompatibile con i valori democratici l’uso di sistemi di AI per comporre in automatico, e su vasta scala, dossier dettagliati sulla vita di cittadini americani a partire da dati dispersi ma legalmente accessibili (geolocalizzazioni, cronologie web, grafi sociali).
  • Armi completamente autonome (“fully autonomous weapons”). L’azienda sostiene che i modelli di frontiera oggi non sono abbastanza affidabili per gestire decisioni di vita o di morte senza supervisione umana, e che mancano del tutto le infrastrutture di controllo e accountability per un loro uso sul campo.

Sul piano valoriale, Amodei lega esplicitamente queste due eccezioni alla difesa delle libertà costituzionali americane e al rischio che errori o allucinazioni del modello possano portare a vittime civili o incidenti di fuoco amico.

L’azienda sottolinea anche che queste limitazioni non sono mai state presenti nei contratti con la Difesa: sono condizioni ex ante, non obiezioni “ad hoc” a singole operazioni militari. E definisce “intrinsecamente contraddittorio” minacciare al tempo stesso di classificarla come rischio per la supply chain (come se fosse vicina a un avversario) e di usare il Defense Production Act perché ritenuta troppo cruciale per la sicurezza nazionale.

Amodei conclude che Anthropic “non può in coscienza” accettare la rimozione di queste due salvaguardie, pur offrendo al Department of War una collaborazione piena per un’eventuale fase di offboarding verso altri fornitori, in modo da non interrompere le operazioni in corso.

Difesa nazionale, Defense Production Act e rischio “supply chain”

Il nodo politico-giuridico è l’uso minacciato del Defense Production Act. Storicamente, il DPA è stato usato per obbligare le aziende a dare priorità a forniture essenziali in tempi di guerra o emergenza: dall’acciaio durante la guerra di Corea, ai ventilatori polmonari e dispositivi medici nella pandemia, fino al latte artificiale nel 2022.

Esperti di diritto industriale citati dall’AP sottolineano che non risulta alcun precedente in cui il DPA sia stato usato per costringere un’azienda a produrre un bene che ritiene insicuro, o per imporre modifiche alle sue condizioni d’uso contrattuali.

Se il Pentagono decidesse davvero di percorrere questa strada, è molto probabile un contenzioso giudiziario: Anthropic potrebbe sostenere che l’amministrazione sta abusando di uno strumento pensato per la produzione materiale (armi, chip, dispositivi medici) e non per riscrivere unilaterale i limiti di responsabilità su un software complesso.

Ancora più delicata è la minaccia di etichettare l’azienda come “supply chain risk”. Secondo analisi legali e di policy, questa designazione porta di solito altri dipartimenti federali e i grandi contractor a interrompere o sospendere l’uso dei prodotti dell’azienda colpita, anche al di fuori del perimetro strettamente militare.

Nel caso di Anthropic, significherebbe:

  • rischio di esclusione da molte gare pubbliche future;
  • forte pressione su società di consulenza, integratori e grandi imprese che oggi usano Claude nei propri workflow per non “contaminare” contratti con la difesa;
  • messaggio chiaro al resto del settore: chi prova a imporre limiti d’uso all’AI militare può essere punito, non solo con la perdita di uno specifico contratto, ma con uno stigma regolatorio esteso.

Un gruppo di analisti di sicurezza e giuristi – tra cui autori su Lawfare e TechPolicy Press – sostiene che, al di là del caso specifico Anthropic, un uso così aggressivo del DPA e della categoria “supply chain risk” trasferirebbe troppo potere discrezionale all’esecutivo, aggirando il ruolo del Congresso degli Stati Uniti nel definire regole e limiti per l’AI militare.

Perché questa vicenda pesa su tutto l’ecosistema AI (anche per le imprese)

Dal punto di vista di business, la posta in gioco va ben oltre un singolo contratto da 200 milioni di dollari.

Per The New York Times, Anthropic è stata finora la sola azienda di AI a lavorare stabilmente su sistemi classificati, posizionandosi come partner “di fiducia” della difesa. Perdere questo status significherebbe cedere campo a concorrenti – da xAI a Google, passando probabilmente per OpenAI – più disponibili ad accettare lo standard del “qualsiasi uso lecito”.

Per le grandi imprese clienti, soprattutto quelle che lavorano a cavallo fra pubblico e privato, la disputa apre una domanda pratica: un giorno la propria scelta di modello AI potrebbe diventare improvvisamente “tossica” perché in conflitto con gli interessi del governo? I commentatori più critici sottolineano il rischio di un effetto raggelante, con aziende e integratori che scelgono per prudenza i modelli percepiti come politicamente “allineati”, riducendo la concorrenza tecnologica.

Allo stesso tempo, il caso Anthropic crea un precedente per le stesse big tech: se l’azienda che ha fatto della “safety” il proprio marchio e che ha collaborato strettamente con il Pentagono sui sistemi classificati viene punita per aver tracciato due sole linee rosse, quanto spazio resta per negoziare limiti più robusti su altre applicazioni (per esempio la pianificazione di cyber-attacchi offensivi o la gestione automatizzata di infrastrutture critiche)?

Infine c’è il livello politico. Il rebranding del Dipartimento della Difesa in “Department of War”, il tono fortemente assertivo del segretario Hegseth e l’uso di strumenti di emergenza come il DPA sono letti da molta stampa internazionale come segnali di una nuova stagione di “massima letalità” dichiarata a livello simbolico e operativo.

In generale, c’è da notare come si sia imposto negli Usa – in questa vicenda e già prima con la guerra dei dazi – una logica “belligerante” da amico-nemico, “chi non con me è contro di me e va distrutto”. Uno scenario preoccupante per il futuro geopolitico.

E ora?

Nel brevissimo periodo, vedremo se il Department of War si limiterà a cancellare il contratto e applicare l’etichetta di “supply chain risk”, o se proverà davvero a usare il Defense Production Act per forzare la rimozione delle salvaguardie: lo scenario che molti giuristi giudicano più vulnerabile in tribunale.

Nel medio periodo, la partita si sposterà probabilmente sul terreno legislativo: diversi analisti sostengono che le regole di ingaggio per l’AI militare non possono essere scritte né da una singola azienda né dal solo Pentagono, ma richiedono una cornice fissata dal Congresso. Se e come questa cornice arriverà, determinerà anche quanta libertà avranno le imprese di definire limiti d’uso “non negoziabili” per i propri modelli

Per chi costruisce o adotta sistemi di AI generativa, il caso Anthropic-Pentagono è già oggi un segnale chiaro: le clausole d’uso non sono solo una questione di compliance, ma un elemento strategico che può scontrarsi con le priorità di governi e apparati di sicurezza. Ignorare questo livello politico-regolatorio significa esporsi, più avanti, a shock che nessun modello di rischio tradizionale aveva previsto.

Fonti

[1]: https://www.anthropic.com/news/statement-department-of-war “Statement from Dario Amodei on our discussions with the Department of War \ Anthropic”

[2]: https://federalnewsnetwork.com/defense-news/2026/02/what-to-know-about-defense-protection-act-and-the-pentagons-anthropic-ultimatum/ “

What to know about the Defense Production Act and the Pentagon’s Anthropic ultimatum | Federal News Network”

[3]: https://www.medianama.com/2026/02/223-us-pentagon-anthropic-ai-guardrails-ai-governance/

“US Pentagon Pressures Anthropic To Lift AI Guardrails”

[4]: https://www.scientificamerican.com/article/anthropics-safety-first-ai-collides-with-the-pentagon-as-claude-expands-into/ “Anthropic’s safety-first AI collides with the Pentagon as …”

[5]: https://www.washingtonpost.com/technology/2026/02/26/anthropic-pentagon-rejects-demand-claude/ “Anthropic rejects Pentagon terms for lethal use of its chatbot Claude”

[6]: https://en.wikipedia.org/wiki/Executive_Order_14347 “Executive Order 14347”

[7]: https://www.aa.com.tr/en/americas/pentagon-musk-s-xai-reach-agreement-to-use-grok-in-classified-systems-report/3838508 “Pentagon, Musk’s xAI reach agreement to use Grok in …”

[8]: https://www.defenseone.com/threats/2026/02/it-would-take-pentagon-months-replace-anthropics-ai-tools-sources/411741/ “It would take the Pentagon months to replace Anthropic’s AI …”

[9]: https://www.techpolicy.press/why-congress-should-step-into-the-anthropicpentagon-dispute “Why Congress Should Step Into the Anthropic-Pentagon …”

[10]: https://www.lawfaremedia.org/article/congress-not-the-pentagon-or-anthropic-should-set-military-ai-rules “Congress—Not the Pentagon or Anthropic—Should Set …”

[11]: https://www.anthropic.com/news/statement-dario-amodei-american-ai-leadership “A statement from Dario Amodei on Anthropic’s commitment …”

[12]: https://ai-frontiers.org/ “AI Frontiers”

[13]: https://www.365i.co.uk/news/2026/02/25/pentagon-anthropic-ai-safety-business-risk/ “The Pentagon Just Threatened Your AI Provider. Here’s …”

[14]: https://www.theguardian.com/us-news/2025/sep/05/department-war-defense-trump-executive-order-pentagon? “Trump signs executive order rebranding Pentagon as …”

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x