Il colosso del software Microsoft ha deciso di sostenere la causa intentata dalla start-up di intelligenza artificiale Anthropic contro il Pentagono, avvertendo che le misure adottate contro l’azienda potrebbero avere “ampie ripercussioni negative” sull’intero settore tecnologico statunitense.
In un documento depositato il 10 marzo 2026 in tribunale, Microsoft ha chiesto un ordine restrittivo temporaneo che sospenda la decisione del Dipartimento della Difesa di classificare Anthropic come rischio per la catena di approvvigionamento mentre la corte esamina il ricorso della società.
Si tratta del primo grande gruppo tecnologico a prendere apertamente posizione nel conflitto tra Anthropic e il Pentagono sulle regole che disciplinano l’uso militare dei suoi modelli di intelligenza artificiale.
Indice degli argomenti:
Anthropic e il Pentagono: una frattura nella Silicon Valley
Lo scontro ha creato divisioni nella Silicon Valley, che fino a tempi recenti aveva evitato di criticare apertamente l’amministrazione del presidente Donald Trump, tornato alla Casa Bianca.
Secondo Microsoft, il blocco temporaneo della decisione del Pentagono permetterebbe di guadagnare tempo per un accordo negoziato e per una “discussione ragionata” sull’utilizzo dell’intelligenza artificiale nelle operazioni militari e di intelligence.
Il nodo delle armi autonome e della sorveglianza
Le trattative tra Anthropic e il Dipartimento della Difesa sono fallite alla fine del mese scorso, quando la start-up – valutata circa 380 miliardi di dollari – ha rifiutato un contratto per l’impiego militare della sua tecnologia.
L’amministratore delegato Dario Amodei ha posto alcune “linee rosse”, tra cui il divieto di utilizzare i sistemi dell’azienda per armi autonome letali o per sorveglianza di massa dei cittadini statunitensi.
In seguito, il segretario alla Difesa Pete Hegseth ha avviato l’esclusione di Anthropic dalla catena di forniture del Pentagono, una misura solitamente riservata a imprese di paesi rivali come Cina o Russia.
Parallelamente, l’amministrazione ha chiesto a tutte le agenzie federali di smettere di utilizzare il chatbot Claude, nell’ambito di una campagna contro quella che definisce “AI woke”.
La posizione di Microsoft sull’intelligenza artificiale
Microsoft ha affermato che l’intelligenza artificiale dovrebbe essere utilizzata solo in contesti legali e adeguatamente controllati.
Secondo l’azienda, l’AI non dovrebbe essere impiegata per la sorveglianza di massa interna né per mettere il Paese nella condizione in cui macchine autonome possano avviare una guerra senza controllo umano.
Il gruppo con sede a Seattle, che detiene importanti contratti militari, ha anche avvertito che un’interruzione improvvisa della collaborazione con Anthropic potrebbe ostacolare le capacità operative delle forze armate statunitensi in un momento critico.
Il ruolo crescente dell’AI nei sistemi militari
Attualmente Claude è l’unico strumento di intelligenza artificiale utilizzato in contesti militari classificati, anche se recentemente OpenAI ha firmato un accordo con il Pentagono.
Microsoft non è parte convenuta nella causa ma ha presentato un amicus brief presso tribunali in California e nel District of Columbia per sostenere la posizione della start-up.
A rafforzare il fronte a favore di Anthropic è arrivata anche una lettera firmata da oltre 30 ricercatori di Google e OpenAI, tra cui il capo scienziato di Google DeepMind, Jeff Dean.
Rapporti tecnologici e interessi strategici
Nonostante possieda il 27% di OpenAI, Microsoft ha sviluppato negli ultimi anni stretti rapporti con Anthropic, arrivando a firmare a novembre un accordo da 30 miliardi di dollari per servizi di cloud computing.
Proprio questa settimana l’azienda ha annunciato l’integrazione dei modelli di programmazione di Anthropic nei propri software aziendali, ampiamente utilizzati anche dal governo federale degli Stati Uniti.
Google, Amazon e Microsoft avevano già dichiarato che i loro uffici legali ritenevano possibile continuare a utilizzare la tecnologia di Anthropic per attività non militari.
Il timore per l’ecosistema dell’AI
Secondo Microsoft, la designazione di Anthropic come rischio per la catena di approvvigionamento costringe i contractor governativi a seguire indicazioni vaghe e poco definite, mai applicate prima contro una società statunitense.
“Non è questo il momento di mettere a rischio l’ecosistema dell’intelligenza artificiale che la stessa amministrazione ha contribuito a promuovere”, ha concluso l’azienda.






