scenari

Google, oltre 600 dipendenti chiedono di escludere Gemini dalle operazioni militari classificate degli Usa



Indirizzo copiato

La protesta riapre il nodo del rapporto tra Big Tech e difesa, dopo il caso Anthropic, e mette in gioco reputazione, contratti pubblici, governance dell’AI e limiti etici nell’economia della sicurezza in piena corsa. Ma la scelta che Sundai Pichai dovrà compiere nei prossimi mesi non riguarderà quindi solo un contratto

Pubblicato il 28 apr 2026



Google
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Più di 600 dipendenti di Google hanno chiesto al ceo Sundar Pichai di impedire che l’intelligenza artificiale dell’azienda venga impiegata dal governo americano in operazioni militari classificate. La lettera aperta, inviata lunedì 27 aprile 2026, riporta al centro un conflitto che negli ultimi mesi ha smesso di essere solo tecnologico: chi controlla l’uso dei modelli generativi nei contesti di difesa, con quali limiti e con quale grado di responsabilità per chi li sviluppa.

Il caso non riguarda soltanto la coscienza interna di una Big Tech. Tocca un mercato destinato a pesare sempre di più sui conti delle società AI, sui rapporti con Washington e sulla reputazione globale dei gruppi che ambiscono a fornire infrastrutture strategiche.

Se fino a poco tempo fa il confronto si teneva sul terreno delle policy aziendali, oggi si è spostato su contratti, procurement pubblico, accesso a reti classificate e clausole d’uso. Ed è qui che la vicenda Google assume un significato economico e industriale che va oltre la protesta dei suoi dipendenti.

La protesta che riapre il dossier militare

AI militare Google
Sundai Pichai

Nel testo indirizzato a Sundai Pichai, i firmatari sostengono che l’unico modo per evitare che Google venga associata ad applicazioni “inumane o estremamente dannose” sia rifiutare i carichi di lavoro classificati. Il punto, per chi ha promosso l’iniziativa, non è solo l’uso in sistemi d’arma autonomi o in programmi di sorveglianza di massa. Il nodo è la perdita di controllo: una volta che il modello entra in ambienti classificati, chi lo ha costruito potrebbe non sapere più in che modo venga impiegato e non avere strumenti per intervenire.

La contestazione nasce mentre diversi media statunitensi riferiscono di negoziati avanzati tra Google e Dipartimento della Difesa per consentire l’uso di Gemini in contesti sensibili. La pressione interna, quindi, arriva prima della firma di un eventuale accordo definitivo e prova a influenzarne l’impostazione.

È un dettaglio importante: i dipendenti non stanno reagendo a un contratto già operativo, ma stanno tentando di alzare il costo reputazionale di una scelta che la dirigenza starebbe valutando come coerente con il nuovo posizionamento geopolitico dell’azienda.

Il fatto che una quota rilevante delle adesioni arrivi da DeepMind e dal perimetro AI segnala un altro elemento: il dissenso non è confinato a una frangia marginale o a funzioni lontane dal business, ma investe il cuore delle competenze su cui Google costruisce la propria strategia.

AI militare Google

Il precedente Anthropic e la nuova linea del Pentagono

AI militare Google
Dario Amodei

La lettera a Pichai si inserisce in un contesto reso più teso dallo scontro fra Pentagono e Anthropic. La società guidata da Dario Amodei aveva chiesto che l’uso dei propri modelli da parte del governo fosse vincolato da limiti espliciti su due fronti: sorveglianza domestica di massa e armi pienamente autonome. Secondo una dichiarazione ufficiale pubblicata da Anthropic a fine febbraio 2026, proprio su queste due eccezioni si era arenato il negoziato con il Dipartimento della Difesa.

La risposta dell’amministrazione Trump è stata dura. Anthropic è stata indicata come rischio di filiera e la Casa Bianca ha disposto l’interruzione dell’uso governativo di Claude. La società ha contestato il provvedimento in tribunale, ma intanto il messaggio politico è passato: chi vuole lavorare con l’apparato federale della sicurezza non può pensare di imporre unilateralmente red lines considerate incompatibili con il principio dell’“all lawful uses”, cioè tutti gli usi ritenuti legittimi dal governo.

Per Google la lezione è evidente. Se accetta di entrare più in profondità nel mercato dell’AI per la difesa senza pretendere salvaguardie forti, può guadagnare terreno commerciale e politico. Se invece prova a chiedere vincoli sostanziali, rischia di trovarsi nella stessa posizione di Anthropic. La lettera dei dipendenti prova a spostare il baricentro della decisione: non più solo convenienza contrattuale, ma anche costo interno, culturale e reputazionale.

Google ha già cambiato postura sull’uso dell’AI

La protesta del 2026 non nasce nel vuoto. Nel 2018 Google fu investita dal caso Project Maven, il programma con cui il Pentagono utilizzava tecnologie di machine learning per analizzare immagini da droni. Allora migliaia di lavoratori firmarono una petizione e l’azienda scelse di non rinnovare il contratto, accompagnando quella decisione con un impianto di principi che escludeva applicazioni legate alle armi e alla sorveglianza in violazione di norme condivise.

Quel quadro è cambiato. Il 4 febbraio 2025 Google ha aggiornato i propri AI Principles e ha rimosso il linguaggio più esplicito che impegnava il gruppo a non perseguire tecnologie destinate a causare o facilitare danni alle persone. Al suo posto, la società ha definito una cornice più generale, centrata su innovazione, responsabilità e allineamento con il diritto internazionale e i diritti umani. È un passaggio non solo lessicale. Segna il superamento di un divieto puntuale e l’apertura a una valutazione caso per caso.

Hassabis Google
Demis Hassabis

Demis Hassabis e James Manyika hanno motivato quella svolta richiamando un contesto internazionale più competitivo, nel quale le aziende statunitensi dell’AI avrebbero anche un ruolo nel rafforzamento della sicurezza nazionale. In altre parole, Google ha progressivamente spostato l’argomento dalla rinuncia preventiva alla gestione del rischio.

I dipendenti firmatari della lettera, però, contestano proprio questa impostazione: ritengono che nelle operazioni classificate il rischio non sia governabile con normali procedure di compliance, perché viene meno la trasparenza minima necessaria a controllare gli impieghi reali.

La posta economica dietro il conflitto etico

Letta con l’occhio del giornalismo economico, la vicenda dice molto sul nuovo equilibrio tra Big Tech e spesa pubblica per la difesa. Le aziende che sviluppano frontier models cercano ricavi più stabili, contratti pluriennali e accesso a clienti a elevata capacità di spesa. Il settore pubblico americano, soprattutto in ambito intelligence e difesa, offre tutte e tre le cose. Per questo la corsa ai contratti governativi non è un’appendice marginale del business AI: è un pezzo crescente della strategia di consolidamento.

Il punto è che i contratti più appetibili sono spesso anche quelli più opachi. L’accesso a reti classificate o a missioni sensibili riduce la visibilità esterna, limita il controllo sociale e rende più difficile separare gli usi amministrativi a basso rischio da quelli operativi. Dal lato aziendale, ciò crea un compromesso delicato. Più una società entra nel perimetro della sicurezza nazionale, più rafforza la propria rilevanza politica e commerciale. Ma allo stesso tempo aumenta il rischio di controversie con dipendenti, utenti, investitori e regolatori internazionali.

Per Google il calcolo è ancora più complesso. Il gruppo non vende solo modelli, ma cloud, infrastruttura, sicurezza, servizi enterprise e piattaforme. Un legame più stretto con il Pentagono può favorire l’espansione della sua offerta pubblica e governativa. Tuttavia può anche pesare sul brand presso clienti e lavoratori che continuano a leggere l’AI come tecnologia general purpose da governare con soglie etiche più strette.

Reputazione e capitale umano diventano fattori di bilancio

Nelle imprese dell’AI, il capitale umano non è un fattore accessorio. Ricercatori, ingegneri e product leader sono una risorsa scarsa, costosa e mobile. Quando un numero ampio di addetti, inclusi profili senior, contesta apertamente una scelta strategica, il tema non è solo culturale: diventa un problema di retention, attrazione dei talenti e coesione organizzativa.

La storia recente del settore mostra che il dissenso interno può produrre effetti concreti. Il caso Maven nel 2018 costrinse Google a un passo indietro. Più di recente, anche OpenAI ha dovuto gestire contraccolpi dopo l’intesa con il Pentagono annunciata a fine febbraio 2026. Sam Altman ha poi ammesso che il modo in cui quell’accordo era stato presentato appariva “opportunistic and sloppy”, opportunistico e gestito male. Il punto non era soltanto la sostanza dell’intesa, ma la percezione di aver privilegiato il posizionamento politico e commerciale rispetto alla costruzione di consenso interno.

Per Google il rischio è simile, ma più ampio. Un’azienda che ha costruito a lungo la propria identità pubblica attorno a promesse di responsabilità tecnologica non può considerare irrilevante il costo di una frattura simbolica con la parte più qualificata della propria base tecnica. Nelle società della conoscenza, la reputazione presso chi lavora al prodotto è un asset che incide sulla capacità di innovare.

Governance dell’AI e limite del controllo ex post

C’è poi un problema di governance che interessa tutto il comparto. Le aziende AI hanno costruito policy d’uso, guardrail, red teaming, auditing e documentazione per dimostrare che i modelli possono essere distribuiti con cautele adeguate. Ma i contesti classificati mettono sotto stress questa architettura. Se le informazioni sull’impiego operativo non sono accessibili, la verifica ex post perde efficacia. È questo il cuore dell’obiezione sollevata nella lettera dei dipendenti Google.

Per anni la governance dell’AI è stata raccontata come un equilibrio tra innovazione e mitigazione del rischio. Oggi, però, i casi militari mostrano un limite più strutturale: alcune applicazioni non sono difficili da regolare perché manchino i principi, ma perché manca la visibilità necessaria a farli rispettare. In questo senso la disputa non riguarda solo se usare o meno un modello generativo in ambito difesa. Riguarda se sia realistico promettere standard etici elevati quando il cliente pubblico chiede margini ampi di autonomia operativa.

È una questione che avrà effetti anche fuori dagli Stati Uniti. Se i principali player americani normalizzano l’uso dei modelli in perimetri classificati senza vincoli trasparenti, sarà più difficile per altri mercati sostenere che l’AI civile e quella militare restano separabili con facilità.

Il mercato corre, ma il confine resta politico

La vicenda mostra infine che il mercato dell’AI militare non sarà governato soltanto dalla superiorità tecnologica. A contare saranno anche la disponibilità ad accettare condizioni poste dagli Stati, la capacità di reggere il dissenso interno e la credibilità con cui le imprese sapranno spiegare dove fissano i propri limiti. Il vantaggio competitivo non dipenderà solo da accuratezza, latenza o costo inferenziale, ma dalla compatibilità fra strategia industriale e cornice politica.

Nel breve periodo il Pentagono ha tutto l’interesse a evitare dipendenze da un singolo fornitore e a creare concorrenza tra Google, OpenAI, Microsoft, Anthropic e altri attori. Nel medio periodo, però, potrebbe premiarne alcuni anche in base alla disponibilità ad aderire a una logica di integrazione più profonda con l’apparato statale. È il motivo per cui la pressione su Google pesa oltre il perimetro dell’azienda: segnala che il punto di frizione tra Silicon Valley e difesa non è stato risolto, ma si è spostato a un livello più alto.

La scelta che Pichai dovrà compiere nei prossimi mesi non riguarderà quindi solo un contratto. Riguarderà il profilo che Google intende assumere nell’economia della sicurezza: piattaforma tecnologica che collabora con il governo mantenendo linee invalicabili, oppure infrastruttura strategica pronta a delegare al cliente pubblico una parte decisiva delle scelte d’uso.

È qui che la protesta dei dipendenti diventa una notizia economica di prima grandezza. Perché nel mercato dell’AI avanzata la fiducia non è un valore astratto: è una componente del vantaggio competitivo, del valore del marchio e della sostenibilità dei ricavi futuri.

Questo articolo è stato scritto sulla base di fonti verificate:

Washington Post, ricostruzione della protesta interna: https://www.washingtonpost.com/technology/2026/04/27/google-employees-letter-ai-pentagon//

Google AI Principles: https://ai.google/principles

Google, aggiornamento su Responsible AI del 4 febbraio 2025: https://blog.google/technology/ai/responsible-ai-2024-report-ongoing-work/

Anthropic, dichiarazione sullo scontro con il Pentagono: https://www.anthropic.com/news/statement-comments-secretary-war/

CBS News, lettera dei dipendenti Google del 27 aprile 2026: https://www.cbsnews.com/news/google-ai-pentagon-classified-use-employee-letter/

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x