Per capire la portata del fenomeno “data center AI“, partiamo dai numeri chiave. Il consumo energetico dei data center è in rapida ascesa dopo anni di relativa stabilità, e la causa principale è l’adozione di carichi di intelligenza artificiale. Secondo un’analisi di Motley Fool, i data center a livello mondiale hanno consumato circa 448 TWh nel 2025, e si prevede quasi un raddoppio a ~980 TWh nel 2030. Gran parte di questa crescita viene dagli AI-optimized servers, i server pensati per carichi AI: questi rappresentavano circa il 21% dell’uso elettrico dei data center nel 2025 e potrebbero salire al 44% nel 2030.
In altre parole, in pochi anni i server AI passeranno da un quinto a quasi la metà del “contatore” energetico dei data center.
Indice degli argomenti:
Un cambiamento epocale
È un cambiamento epocale. I data center stessi già pesano per una frazione non trascurabile del consumo globale (stime variano dal 1% al 3% dell’energia mondiale, e più in certe regioni), e con l’AI questa quota cresce. Negli Stati Uniti, il 2024 ha visto i data center toccare il 4% del totale elettricità nazionale, con proiezioni di raddoppio entro 2030. L’AI generativa è chiamata in causa come fattore principale di questo salto.
Cosa rende l’AI così affamata di energia? I modelli di deep learning, specie quelli generativi o di grandi dimensioni, richiedono milioni-miliardi di operazioni matematiche per ogni inferenza (cioè ogni volta che producono un output) e ancora di più per l’addestramento. Queste operazioni avvengono su GPU o altri acceleratori che consumano ciascuno centinaia di watt a pieno regime.
Un singolo pod di training avanzato (es: 8 GPU A100 o H100 di Nvidia) può assorbire 5-10 kW; un grande cluster per addestrare GPT-4 o modelli simili può arrivare a diversi MW per settimane o mesi. Anche i modelli in produzione, su scale planetarie (pensiamo a milioni di utenti che interrogano ChatGPT ogni giorno), fanno sommare i consumi.
Un aspetto critico è che l’energia assorbita si trasforma quasi tutta in calore. Questo costringe a impiegare potenti sistemi di raffreddamento, che a loro volta consumano energia. La “legge di Moore” del cooling dice che per ogni watt di computazione spesso serve quasi un altro watt in cooling nei data center tradizionali, sebbene si migliori con soluzioni come free cooling o liquid cooling. Ecco perché la gestione termica e energetica sono due facce della stessa medaglia.
Nel 2026 le aziende che puntano sull’AI non possono ignorare questi dati. Ogni progetto AI di ampia portata porta con sé una bolletta energetica significativa. Questo implica due cose: costo economico (il prezzo dell’elettricità incide sul costo del servizio AI) e impatto ambientale (emissioni di CO2 se l’energia non è pulita, pressione sulle reti).
Il vincolo entra in consiglio di amministrazione
Fino a pochi anni fa difficilmente un consiglio di amministrazione discuteva di forniture elettriche o data center, considerandoli dettagli operativi da CIO o facility manager. Ora sta cambiando. In molti board di aziende tech e non solo, l’energia per l’AI è tema di discussione strategica e di rischio. Ad esempio, se un’azienda di servizi volesse implementare su larga scala AI per ogni cliente, deve valutare se i suoi data center (o quelli del cloud provider di cui si serve) possano sostenere il carico.
Il forum di Harvard sulla corporate governance ha segnalato che quasi metà delle società big citano ormai l’AI tra i rischi d’impresa nei loro documenti, menzionando tra l’altro possibili vincoli operativi e costi legati ad essa. Tradotto: una carenza di infrastruttura o un aumento esorbitante dei costi energetici può frenare la strategia AI.
L’esempio di Meta
Abbiamo l’esempio di Meta, uno dei leader: nel 2023-25 ha condotto una valutazione seria di come alimentare i suoi futuri data center per AI e ha concluso che serve diversificare e investire massicciamente in energia. Il risultato è stato l’annuncio a inizio 2026 di 20-year agreements con fornitori nucleari (Vistra, TerraPower, Oklo) per assicurarsi fino a 6,6 gigawatt di potenza entro il 2035. 6,6 GW è l’equivalente di 6 grosse centrali nucleari – un impegno colossale, impensabile per un’azienda privata fino a poco tempo fa.
Joel Kaplan di Meta ha dichiarato che con questi accordi Meta diventerà “uno dei più grandi acquirenti corporate di energia nucleare nella storia americana”.
Questo non per vezzo, ma perché l’analisi costi-benefici ha mostrato che senza mettere in sicurezza la fornitura energetica, la crescita dell’AI (e dei data center in generale) sarebbe stata a rischio. I 6,6 GW servono a coprire non solo l’espansione prossima, ma anche la decarbonizzazione (rimpiazzando eventualmente fonti fossili) e la solidità a lungo termine contro fluttuazioni di mercato dell’energia.
Anche altri big del cloud stanno facendo mosse analoghe: Google da anni investe in PPAs (Power Purchase Agreements) da rinnovabili per equivalere il 100% dei consumi; Microsoft come accennato sta esplorando addirittura la fusione nucleare come opzione. Amazon Web Services ha in pipeline enormi parchi eolici e solari dedicati. Si può dire che i fornitori di cloud e servizi AI siano diventati tra i principali player energetici privati al mondo.
Per aziende più piccole o non direttamente nel tech, la questione può manifestarsi in modi diversi. Ad esempio, un’azienda automotive che vuole mettere AI in tutte le sue fabbriche (vision per controllo qualità, gemelli digitali per ottimizzare produzione, ecc.) potrebbe doversi dotare di mini-data center in stabilimento: significa predisporre power supply dedicata, gruppi di continuità più robusti, e assicurarsi che i costi energetici non erodano i benefici.
Oppure può appoggiarsi al cloud, ma allora è soggetta ai costi energetici che il cloud provider riflette nei prezzi, e deve considerare l’impronta carbonica nelle proprie politiche ESG.

Efficienza e innovazione per domare il consumo
La buona notizia è che insieme all’aumento della domanda energetica, c’è un grande sforzo per migliorare l’efficienza. Abbiamo già citato come l’efficienza energetica per operazione AI migliora ~40% all’anno, e come i costi per livello di performance calano anch’essi. Questo è frutto di innovazioni sia hardware (chip più efficienti, tecnologie come alimentazione a 48V nei server, raffreddamento a liquido che riduce l’overhead di climatizzazione) che software (ottimizzazione modelli, quantizzazione).
Inoltre, la progettazione dei data center sta virando fortemente sul concetto di sostenibilità e risparmio:
- Luogo: data center costruiti in regioni fredde possono ridurre il raffreddamento usando l’aria esterna (free cooling). Oppure in zone con energia rinnovabile abbondante (ad es. Islanda con geotermia, Svezia con idroelettrico).
- Recupero calore: alcuni data center iniziano a convogliare il calore prodotto per teleriscaldamento urbano o altri usi, migliorando l’efficienza complessiva del sistema.
- Architetture HPC: per l’AI più spinta si adottano design tipici del supercalcolo, con densità altissime di componenti e sistemi di raffreddamento innovativi (immersione in liquidi dielettrici, ad esempio). Questi accorgimenti possono far raddoppiare la resa per kWh rispetto a soluzioni standard.
- Orchestrazione intelligente: un aspetto software, ma rilevante: spostare i carichi AI nel tempo e nello spazio per livellare i picchi. Ad esempio, programmare certi training intensivi in orari notturni o quando la domanda generale è più bassa, oppure spostarli su regioni dove in quel momento c’è surplus di rinnovabile (qualcuno scherza: far coincidere i training col mezzogiorno solare in certe zone).
Un’AI più “green”
Tutto ciò rientra nelle strategie di molte aziende di avere un’AI più “green”. Non solo per motivi etici o di brand, ma anche perché sprecare meno energia significa risparmiare denaro e poter scalare di più a parità di infrastruttura. Ad esempio, un’azienda che riesce a ridurre il PUE (Power Usage Effectiveness) del proprio data center AI da 1.5 a 1.2 (quindi da 50% overhead di cooling a 20%) libera potenzialmente centinaia di kW per computazione aggiuntiva o riduce la bolletta di un terzo.
Va detto che malgrado i progressi, stiamo nuotando controcorrente: l’efficienza migliora ma l’utilizzo cresce più in fretta, quindi il consumo totale aumenta. Per questo alcuni iniziano a parlare di “AI sostenibile” come prossimo obiettivo: non basta che l’AI funzioni, deve funzionare entro parametri sostenibili sul lungo periodo.
C’è chi propone metriche come Energy-Per-Outcome (energia per query, energia per modello addestrato, ecc.) da tenere sotto controllo come KPI aziendale. Così come oggi si monitorano i costi, in futuro si monitorerà “questo modello vale la pena addestrarlo se richiede X MWh? Ci conviene aspettare chip più efficienti?” – domande che in alcuni contesti già si pongono.
L’energia come fattore di concorrenza e collaborazione
Una conseguenza curiosa è che l’energia sta creando nuove alleanze e rivalità nel mondo dell’AI. Le grandi aziende tech sono ora tra i principali investitori in progetti energetici innovativi (come visto con Meta nucleare, Microsoft fusione, Google rinnovabili avanzate). Questo le porta a collaborare con un settore, quello energetico, che finora era abbastanza separato dal digitale.
Aziende elettriche e compagnie tech stringono partnership strategiche: ad esempio, ExxonMobil e altre compagnie petrolifere collaborano con operatori di data center per fornire energia e al contempo utilizzare il calore dissipato (esistono progetti di mettere data center vicini ai pozzi petroliferi per alimentarsi col gas in eccesso e restituire calore per processi industriali). È uno scenario in evoluzione dove l’AI diventa un cliente di rilievo per il settore energia.
Offrire un’AI a minor footprint
Sul fronte concorrenziale, potremmo assistere a differenziazioni tra servizi AI basate sulla loro efficienza o impatto. Ad esempio, un provider cloud potrebbe pubblicizzare che il suo servizio di AI generativa è “più efficiente del 20%” rispetto ad altri grazie ai suoi data center ottimizzati – e tradurre questo in prezzi più bassi o in crediti di sostenibilità per i clienti. Già alcuni clienti corporate chiedono ai fornitori cloud il report di emissioni legate all’uso che fanno (Scope 3 emissions in ambito ESG). Chi saprà offrire AI a minor footprint potrebbe vincere contratti.
In termini di rischio: come qualunque settore ad alta intensità, l’AI ora deve considerare eventuali shock energetici. Se, ipotesi, il prezzo dell’energia raddoppiasse per una crisi geopolitica, alcune aziende potrebbero dover rallentare le attività AI per costi eccessivi. Questo è uno scenario estremo, ma non impossibile. Anche per questo si cercano contratti di lungo termine o fonti dedicate: ridurre l’esposizione alla volatilità.
Non ultimo, c’è un tema di policy e regolazione: i governi iniziano a interrogarsi se l’AI vada “razionata” energeticamente o incoraggiata a essere efficiente. L’UE nell’ambito della transizione verde monitora i consumi dei data center e valuta codici di condotta; in alcuni paesi si discute se imporre requisiti di efficienza ai nuovi impianti. Per ora l’approccio è più sul favorire misure volontarie e innovazione, ma se l’AI diventasse un “energivoro” troppo grande, potrebbe scattare anche la regolamentazione (ad esempio, obblighi di utilizzare percentuali di energia rinnovabile o di recuperare calore).
L’AI “atterra” nel mondo reale
In conclusione, il 2026 segna definitivamente l’atterraggio dell’AI dal mondo virtuale a quello fisico. Le prestazioni algoritimiche restano cruciali, ma senza terra, cemento e chilowatt quell’algoritmo non girerà mai su vasta scala. Le aziende lo stanno capendo e stanno allargando i team AI per includere ingegneri infrastrutturali, energy manager, esperti di cooling. L’AI entra nei piani industriali a fianco di fabbriche, uffici e logistica.
Questo cambiamento impone una mentalità diversa anche ai leader aziendali: quando valutano un progetto AI devono chiedersi non solo “che ROI porta?” ma anche “abbiamo i mezzi fisici per sostenerlo?”. Molto concretamente: se un progetto AI richiede 100 GPU e genererà valore X, bisogna procurarsi quelle 100 GPU in tempi utili, alimentarle, alloggiarle. Non è una voce di nota a pie’ di pagina, è parte integrante del progetto.
Il vincolo fisico entra nella strategia AI
Chi riuscirà a governare bene questo aspetto – garantendosi infrastruttura adeguata e insieme mantenendo sotto controllo l’efficienza – avrà un vantaggio competitivo. Perché in un mondo dove tutti possono potenzialmente accedere agli stessi modelli AI (molti sono open o replicabili), la differenza la farà chi può farli girare meglio, di più e a costi minori. E questo ricade sul binomio data center + energia.
In definitiva, il vincolo fisico è entrato nella strategia AI, e paradossalmente ciò rende l’AI più “reale” e matura. Non è più una magia del software, ma una tecnologia industriale che richiede risorse tangibili. Come ogni tecnologia industriale (dall’acciaio alla chimica) dovrà evolvere verso efficienza, sostenibilità e affidabilità delle forniture. Il 2026 è l’anno in cui questo messaggio diventa chiaro nei consigli di amministrazione e ai piani alti delle decisioni di politica economica.







