istituzioni

L’Ue mette sul piatto 20 miliardi per le gigafactory AI: i dubbi di eurodeputati ed esperti



Indirizzo copiato

La Commissione europea prepara il lancio di un piano per costruire maxi poli di calcolo dedicati all’intelligenza artificiale. Bruxelles li considera un passaggio necessario per ridurre la dipendenza da Stati Uniti e Cina. Per alcuni osservatori, in Europa non esisterebbe un numero sufficiente di imprese che abbia la necessità di tanta potenza

Pubblicato il 11 mag 2026



gigafactory AI Europa
AI Questions Icon
Chiedi all'AI
Riassumi questo articolo
Approfondisci con altre fonti

Un piano da 20 miliardi di euro per finanziare grandi hub di calcolo destinati ad addestrare modelli avanzati. La Commissione europea si prepara a lanciare uno dei suoi progetti più ambiziosi sull’intelligenza artificiale. Nelle intenzioni di Bruxelles, queste strutture dovrebbero rafforzare l’autonomia tecnologica del continente e ridurre la dipendenza dalle infrastrutture di Stati Uniti e Cina. Ma a poche settimane dal lancio formale, il progetto è già nel mirino di eurodeputati, analisti e operatori del settore, che mettono in dubbio il nodo decisivo: chi userà davvero questa capacità computazionale.

Ursula von der Leyen

Il piano era stato illustrato dalla presidente della Commissione Ursula von der Leyen l’11 febbraio 2025 al vertice sull’AI di Parigi e viene presentato come la risposta europea alla corsa globale per la potenza di calcolo, diventata uno dei principali fattori competitivi nello sviluppo dei modelli di intelligenza artificiale generativa.

Da una parte ci sono gli Stati Uniti, dove gruppi come OpenAI e Anthropic lavorano su modelli di grandi dimensioni sostenuti da investimenti privati enormi. Dall’altra la Cina, che continua a rafforzare la propria filiera tecnologica. In mezzo, l’Europa prova a ritagliarsi uno spazio, ma parte in ritardo.

Il progetto di Bruxelles

L’idea della Commissione è costruire tra quattro e cinque mega impianti, ciascuno dotato di circa 100mila Gpu. Ogni struttura sarebbe circa quattro volte più grande delle cosiddette AI Factories già annunciate dall’Unione e dovrebbe servire startup, centri di ricerca e aziende europee impegnate nello sviluppo di sistemi avanzati.

Il progetto si inserisce in una strategia più ampia. Nel 2024 Bruxelles aveva già promesso 19 supercomputer orientati all’AI in 16 Paesi membri, con l’obiettivo di mettere a disposizione infrastrutture pubbliche e condivise. Le gigafactory rappresentano il gradino successivo: impianti molto più grandi, più costosi e più energivori, pensati per sostenere la corsa ai modelli di frontiera.

Il finanziamento dovrebbe combinare risorse pubbliche e private. Dal lato europeo è stato predisposto un fondo da 20 miliardi di euro. Secondo la Commissione, durante una verifica informale dello scorso anno sono arrivate 76 candidature per 60 siti distribuiti in 16 Paesi.

Tra i soggetti interessati compare anche Scaleway, società francese già attiva nel cloud e nelle infrastrutture digitali. Bruxelles legge questi numeri come un segnale di interesse concreto del mercato.

Il punto critico: la domanda esiste davvero?

È su questo passaggio che si concentrano le obiezioni più forti. Per molti osservatori, il problema non è tanto costruire nuovi centri di calcolo, quanto capire se in Europa esista un numero sufficiente di imprese capaci di assorbire quella potenza. La distinzione è cruciale: non basta disporre di grandi impianti, serve anche una base industriale e tecnologica che li renda economicamente e strategicamente utili.

Il deputato europeo tedesco Sergey Lagodinsky, dei Verdi, ha sintetizzato la critica in modo netto durante un evento a Bruxelles: nessuno, ha detto, gli ha saputo spiegare quale sia il modello di business delle gigafactory. L’argomento “serve più capacità di calcolo in Europa” non gli basta. La domanda, ha osservato, resta sempre la stessa: per fare cosa e per conto di chi.

Anche una parte del mondo accademico e dei think tank europei segnala lo stesso rischio. Nicoleta Kyosovska, ricercatrice del Centre for European Policy Studies di Bruxelles, ha osservato che il pubblico delle gigafactory resta molto meno definito rispetto a quello delle strutture più piccole già previste. Il centro studi ha dedicato al tema un rapporto dal titolo eloquente: “Santuari dell’innovazione o cattedrali nel deserto?”. La formula riassume bene il dubbio che attraversa il dibattito europeo: le gigafactory saranno motori di sviluppo o infrastrutture sovradimensionate costruite in assenza di una domanda reale?

L’Europa arriva tardi alla corsa globale

La fragilità della domanda interna dipende anche dalla posizione che l’Europa occupa oggi nella filiera dell’AI. Negli ultimi anni l’Unione ha puntato molto sulla regolazione, culminata nell’AI Act, e molto meno sulla costruzione di campioni industriali paragonabili ai grandi gruppi statunitensi. Questo squilibrio, secondo i critici, presenta ora il conto.

Le grandi piattaforme americane hanno accumulato un vantaggio su più fronti: accesso ai capitali, disponibilità di chip, data center, ecosistemi cloud, basi utenti e massa critica di dati e ricercatori.

In Cina il sostegno pubblico e l’integrazione tra strategia industriale e infrastrutture hanno consentito un avanzamento rapido, pur in un contesto segnato dalle restrizioni commerciali imposte da Washington su semiconduttori e tecnologie sensibili.

L’Europa, invece, dispone di eccellenze scientifiche, di una manifattura avanzata e di alcuni poli di ricerca di alto livello, ma non ha ancora un gruppo numeroso di aziende in grado di sviluppare modelli di grandi dimensioni che richiedano volumi di calcolo paragonabili a quelli dei concorrenti americani. Questo rende più difficile giustificare investimenti infrastrutturali così pesanti.

Il caso Mistral e il paradosso europeo

Il nome che ricorre più spesso quando si parla di AI europea è Mistral, la società francese considerata il principale campione continentale nel settore dei modelli generativi. Il punto, però, è che proprio Mistral mostra i limiti dell’impostazione europea. L’azienda non sta aspettando le gigafactory finanziate da Bruxelles: sta costruendo da sola la propria infrastruttura.

A febbraio la società ha annunciato un investimento da 1,2 miliardi di euro in data center in Svezia. Alla fine di marzo ha raccolto 830 milioni di dollari per finanziare un centro con quasi 14 mila Gpu vicino a Parigi. La scelta ha un significato preciso. Chi ha la capacità industriale e finanziaria per muoversi su questa scala preferisce assicurarsi in autonomia le risorse di calcolo, senza attendere i tempi della macchina europea.

Qui emerge un paradosso. Se l’unico vero attore europeo in grado di usare grandi volumi di potenza computazionale costruisce da sé le proprie strutture, la domanda per i mega impianti pubblici o semi-pubblici si riduce ulteriormente. E se gli altri soggetti del mercato sono startup più piccole, università o centri di ricerca, allora potrebbe essere più utile distribuire le risorse su infrastrutture intermedie, più accessibili e meno costose.

Sovranità tecnologica o spesa inefficiente

La Commissione respinge queste critiche e difende il progetto con un argomento politico prima ancora che economico. Secondo il portavoce Thomas Regnier, il punto non è soltanto avere “raw compute”, potenza di calcolo grezza, ma “sovereign compute”, cioè capacità computazionale sovrana. Il concetto richiama una delle parole chiave della nuova politica industriale europea: autonomia strategica.

In questo quadro, il valore delle gigafactory non si misura solo con i conti economici di breve periodo. Disporre di grandi infrastrutture sul territorio europeo significherebbe avere più controllo su dati, sicurezza, continuità operativa, ricerca e catene di fornitura. In altri termini, Bruxelles teme che senza una base propria l’Europa resti subordinata ai cloud provider americani e alle scelte industriali altrui.

L’argomento ha una sua coerenza, ma non elimina la questione dell’efficienza. La sovranità tecnologica ha un costo elevato, e per reggere ha bisogno di priorità chiare. Se le gigafactory nasceranno senza una domanda stabile, con modelli di governance incerti e tempi lunghi di realizzazione, il rischio è di immobilizzare capitale pubblico in infrastrutture sottoutilizzate.

In un settore dove i cicli tecnologici si accorciano rapidamente, anche pochi anni di ritardo possono ridurre il valore di investimenti molto grandi.

Ritardi, candidature e problemi di governance

Il percorso del bando ufficiale conferma che l’operazione è più complessa del previsto. La call formale per le proposte è stata rinviata due volte e ora viene attesa entro la primavera. Nel frattempo proseguono le trattative per consolidare alcune candidature e definire i dettagli pratici tra gli Stati membri che sostengono i progetti e EuroHPC, il soggetto che gestisce la rete europea dei supercomputer.

Questo passaggio pesa almeno quanto il tema finanziario. Una rete di impianti di tale portata richiede criteri rigorosi di selezione, regole trasparenti sull’accesso alla potenza di calcolo, tariffe sostenibili, garanzie sull’approvvigionamento energetico e tempi certi di messa in funzione. Ogni ritardo aggiunge incertezza in un mercato che corre molto più rapidamente della decisione pubblica.

C’è poi la questione territoriale. Sedici Paesi hanno manifestato interesse, e ogni candidatura porta con sé aspettative industriali, occupazionali e politiche. In questi casi la logica dell’equilibrio geografico rischia di entrare in tensione con quella dell’efficienza economica. Un’infrastruttura di questa scala funziona se viene collocata dove ci sono energia, connettività, competenze e domanda. Se prevale la distribuzione politica, la resa industriale può peggiorare.

L’altra strategia possibile: puntare sulle applicazioni industriali

Una parte crescente del dibattito europeo suggerisce una strada diversa. Invece di inseguire Stati Uniti e Cina sul terreno dei modelli linguistici generalisti, l’Europa potrebbe concentrare risorse e capacità su ciò che già sa fare meglio: manifattura, robotica, automotive, farmaceutica, aerospazio, energia, design industriale. In questi settori l’AI non passa necessariamente per modelli giganteschi come quelli che competono con ChatGPT.

L’eurodeputata bulgara Eva Maydell lo ha detto con chiarezza a febbraio: l’Europa non può competere con la mole di investimenti già realizzati negli Stati Uniti. Esiste però un mondo oltre i large language model, e lì si trovano i vantaggi strategici europei. È un punto centrale. L’adozione dell’AI nell’industria, nella logistica, nella sanità e nei servizi pubblici richiede infrastrutture, ma spesso di tipo diverso: potenza distribuita, sistemi verticali, capacità di integrazione con processi produttivi e grandi basi di dati settoriali.

In questa prospettiva, una parte dei 20 miliardi potrebbe generare più valore se destinata a reti di calcolo più flessibili, a cloud industriali europei, a piattaforme condivise per pmi e centri di ricerca, o ancora a programmi che facilitino l’adozione concreta dell’IA nei distretti produttivi. L’effetto economico sarebbe meno visibile sul piano simbolico, ma forse più coerente con la struttura industriale del continente.

Il nodo economico: investire bene conta più che investire molto

Il caso delle gigafactory mette in luce una tensione ricorrente nella politica industriale europea. Dopo anni di prudenza sugli aiuti di Stato e di enfasi sulla regolazione, Bruxelles prova a recuperare terreno mobilitando risorse ingenti. Il cambio di passo è reale, ma la quantità del denaro non risolve da sola il problema della strategia.

Nel settore dell’AI, la competizione non si gioca soltanto sulla dimensione degli impianti. Contano l’accesso ai chip più avanzati, l’energia a costi sostenibili, la disponibilità di capitale privato, la velocità autorizzativa, la qualità della ricerca, il trasferimento tecnologico e l’esistenza di imprese in grado di trasformare il calcolo in prodotti. Se uno di questi tasselli manca, anche la migliore infrastruttura rischia di rimanere sotto-utilizzata.

Per questo il dibattito sul piano europeo non riguarda solo l’intelligenza artificiale. Riguarda il modo in cui l’Unione sceglie le sue priorità industriali e misura la distanza tra ambizione politica e capacità di esecuzione. Le gigafactory possono diventare un asset strategico, ma solo se saranno integrate in un ecosistema che oggi appare ancora incompleto.

Una scelta che peserà sulla politica industriale europea

La decisione che Bruxelles prenderà nei prossimi mesi avrà un valore che va oltre i singoli data center. Se il progetto partirà senza una domanda solida e senza una chiara selezione delle priorità, il rischio è un nuovo caso europeo di investimento ad alto profilo politico e rendimento incerto. Se invece la Commissione riuscirà a correggere il tiro, calibrando dimensione, governance e finalità industriali, le gigafactory potranno diventare un tassello utile della strategia tecnologica comune.

Per ora il punto fermo è uno: l’Europa vuole smettere di essere solo il regolatore del digitale globale. Ma passare dal ruolo di arbitro a quello di protagonista richiede più di uno stanziamento miliardario. Richiede di scegliere dove il continente può davvero costruire un vantaggio competitivo. E su questo, prima ancora che sulle Gpu, si gioca la partita vera del piano europeo per l’AI.

guest

0 Commenti
Più recenti
Più votati
Inline Feedback
Vedi tutti i commenti

Articoli correlati

0
Lascia un commento, la tua opinione conta.x