L’intelligenza artificiale sta ridefinendo l’equilibrio tra innovazione e sostenibilità. Da un lato consente tagli netti alle emissioni nei settori più inquinanti, come l’industria pesante, l’edilizia e i trasporti, dall’altro lato alimenta una crescita vertiginosa della domanda energetica globale, concentrata nei data center. Secondo l’International Energy Agency (IEA), i consumi elettrici legati all’AI potrebbero superare quelli dell’intero Giappone entro il 2030, mentre le emissioni delle big tech sono già aumentate del 30-50% in pochi anni.
In assenza di una governance globale condivisa e di standard di trasparenza, il rischio è che il potenziale “green” dell’AI venga neutralizzato dai suoi stessi effetti collaterali. Un paradosso tecnologico che impone scelte strategiche urgenti.
Indice degli argomenti:
AI per settori ad alto impatto: dai porti all’acciaio
L’intelligenza artificiale si sta rivelando un alleato strategico per decarbonizzare settori difficili da trasformare. Il porto di Rotterdam, uno dei più trafficati al mondo, ha sviluppato la piattaforma PortXChange per ridurre il tempo di attesa delle navi in porto, uno spreco energetico finora inevitabile. Shell ha così tagliato del 20% l’“idle time” nei suoi scali, con riflessi concreti sulle emissioni. L’adozione si estende a settori altamente inquinanti. Nell’industria siderurgica, responsabile del 10% delle emissioni globali di CO2, Gerdau ha integrato AI e machine learning per ottimizzare l’uso di rottami metallici in forni elettrici, riducendo le emissioni del 3,3% nel 2024 senza interventi hardware. La società Fero Labs ha permesso questa innovazione analizzando anni di produzione e suggerendo dosi minime di leghe aggiuntive per standard qualitativi.
Anche nel settore minerario l’AI gioca un ruolo: Fortescue, colosso australiano, ha usato algoritmi predittivi per adattare l’uso energetico alle previsioni meteo, anticipando i picchi di consumo quando il sole splende. Questo ha ridotto del 9% la capacità necessaria degli impianti, con un risparmio stimato di 500 milioni di dollari.
Nel settore edilizio, BrainBox AI ha implementato sistemi HVAC autonomi in 600 negozi della catena Dollar Tree, integrando dati meteo e sensori ambientali. Risultato: – 8 GWh e oltre 1 milione di dollari di risparmio. In ambito infrastrutturale, Aveva e Ibm hanno permesso a Ontario Power Generation e Sund & Baelt di risparmiare milioni e prolungare la vita utile degli impianti, evitando potenzialmente 750mila tonnellate di CO2. Infine, la logistica. UPS ha ottimizzato i percorsi giornalieri dei suoi corrieri con AI, tagliando fino a 22 km di tragitto giornaliero per veicolo.
Cargill Ocean Transportation e Maersk hanno ridotto tempi di carico e consumo carburante grazie ad analisi in tempo reale delle rotte, risparmiando fino a 1,5 milioni di tonnellate di CO2 all’anno. Un esempio tangibile di come “brown to green” sia più che uno slogan.
Il potenziale energetico dell’AI secondo l’IEA
Secondo l’International Energy Agency, l’adozione diffusa di soluzioni AI potrebbe abbattere la domanda energetica industriale di circa 8 exajoule (EJ) entro il 2035: è quanto l’intero Messico consuma in un anno. Altri 5 EJ potrebbero essere risparmiati nei settori non industriali. L’AI si dimostra particolarmente efficace nella gestione predittiva delle reti elettriche, nella riduzione del consumo di carburanti nei trasporti e nel rilevamento delle emissioni invisibili di metano.
Il contributo dell’AI è dunque duplice: può ottimizzare i sistemi esistenti e accelerare la transizione verso fonti rinnovabili. Questi vantaggi non saranno automatici, serviranno trasparenza e un orientamento sistemico: solo con politiche pubbliche coerenti e incentivi al miglioramento continuo sarà possibile consolidare l’AI come leva positiva per il clima.

I costi nascosti dell’AI: energia, CO2 e il paradosso dell’efficienza
L’AI non è solo soluzione: è anche parte del problema. L’infrastruttura che la sostiene è energivora. In Irlanda, il 20% dell’energia elettrica è già consumato dai data center. Nella contea di Loudoun (Virginia), si prevede un fabbisogno di oltre 13 GW entro il 2038, più del consumo attuale dell’intera Irlanda.
Il consumo globale dei data center potrebbe aumentare del 50% già entro il 2027, e del 165% al 2030, secondo Goldman Sachs. L’IEA stima che l’AI potrebbe far triplicare il consumo elettrico globale dei data center entro cinque anni.
Meta, ad esempio, ha consumato 27,5 GWh per l’addestramento del modello Llama 3.3, l’equivalente dell’energia annua di 7.500 abitazioni. Le emissioni dirette sono state 11.390 tonnellate di CO2, ma Meta sostiene che l’uso di crediti per l’energia rinnovabile compensi l’impatto. Tuttavia, molti esperti mettono in dubbio l’efficacia reale di questi offset.
La fase di inferenza, cioè l’uso dei modelli, rappresenta fino al 96% del consumo energetico totale. Modelli complessi come quelli di generazione immagini richiedono fino a 3.000 volte più energia rispetto a modelli leggeri di manipolazione testuale.
I nuovi modelli “reasoning”, più lenti ma capaci di pensiero articolato, stanno aumentando nuovamente il consumo, vanificando i guadagni di efficienza ottenuti da modelli precedenti come DeepSeek V3. Siamo davanti al classico effetto rebound: più efficienza, maggiore utilizzo, maggiore consumo di energia.
Un fenomeno già osservato nel XIX secolo con le macchine a vapore, il cui miglioramento spinse l’industria a consumare ancora più carbone. Lo stesso meccanismo si è ripetuto in altri contesti tecnologici: basti pensare al traffico aereo, dove motori più efficienti non hanno frenato la crescita dei voli, ma l’hanno incentivata. Una lezione che l’AI moderna sembra dover ancora imparare, soprattutto se non accompagnata da regole e incentivi che frenino l’eccesso di utilizzo.

Oltre gli algoritmi, c’è un bisogno di una governance globale
La transizione verso un’AI sostenibile richiede regole, non solo buone intenzioni. Finora, le policy pubbliche sono risultate deboli o frammentarie. L’Europa ha fatto un primo passo imponendo, dal 2026, l’obbligo per i modelli AI ad “alto rischio” di rendicontare il proprio consumo energetico. Ma altrove, in particolare negli Stati Uniti, dominano ancora logiche di autoregolazione volontaria. La trasparenza è il primo tassello. Senza dati aperti su consumo, emissioni e prestazioni, è impossibile esercitare un controllo.
Oggi molte aziende, inclusi giganti come OpenAI, non pubblicano metriche sui loro modelli più avanzati.
Un secondo fronte riguarda l’architettura stessa dei data center. L’IEA propone di renderli flessibili, in grado di spostare carichi di lavoro nel tempo e nello spazio, adattandosi alla disponibilità intermittente delle fonti rinnovabili.
Terzo, il potere di mercato delle big tech va messo al servizio della transizione. Invece di limitarsi a compensare, aziende come Microsoft, Google e Amazon, che già acquistano grandi volumi di energia verde, potrebbero finanziare direttamente nuova capacità rinnovabile o spingere per riforme normative che facilitino l’integrazione di geotermico e nucleare modulare. Dobbiamo evitare che l’AI diventi un acceleratore della crisi climatica, per non fare la fine descritta in Wall-E…
L’AI va trattata come una risorsa strategica globale, ciò significa che è necessaria visibilità, responsabilità e un quadro condiviso di governance energetica e ambientale.
Intelligenza artificiale e clima: prospettive emergenti e modelli di azione
Oltre alle iniziative più consolidate, emergono proposte radicali e sperimentazioni che vanno dalla costruzione di data center alimentati da energia nucleare modulare, all’utilizzo di “AI agents” capaci di autogestire l’efficienza energetica interna delle infrastrutture digitali. Alcune aziende, come Microsoft e Amazon, sono già i principali acquirenti di energia rinnovabile nel mondo tramite contratti a lungo termine (PPA), mentre startup e istituzioni accademiche stanno lavorando su benchmark pubblici di efficienza, come ad esempio HuggingFace con Salesforce.
L’UNEP e altre agenzie ambientali internazionali stanno testando l’AI per rilevare in tempo reale le perdite di metano e gli sprechi idrici nei sistemi urbani. Questo conferma come l’AI possa non solo ridurre l’impatto ambientale diretto, ma anche potenziare le capacità di sorveglianza ecologica su scala globale. Tuttavia, anche gli approcci più promettenti rischiano di essere neutralizzati dal principio noto come “paradosso di Jevons”: migliorando l’efficienza e riducendo i costi, si incentiva l’aumento del consumo.
Lo stesso vale per la generazione di immagini o l’adozione di AI reasoning agents: più sono potenti, più vengono usati, più energia serve per alimentarli.
Conclusioni
L’intelligenza artificiale rappresenta oggi uno snodo cruciale tra accelerazione tecnologica e responsabilità ambientale. Può essere un catalizzatore straordinario per ridurre l’impronta carbonica dei settori più inquinanti, come dimostrano casi concreti nell’industria pesante, nella logistica e negli edifici. Ha un potenziale significativo anche nella gestione intelligente delle reti elettriche e nel monitoraggio ambientale. I costi nascosti legati all’addestramento e all’uso dei modelli, l’aumento del consumo energetico nei data center e il rischio di effetto rebound rendono essenziale un sistema di governance globale.
Senza trasparenza, standard condivisi e investimenti nelle energie rinnovabili, l’AI rischia di aggravare, anziché ridurre, la crisi climatica. Da questa consapevolezza che deve partire una nuova agenda condivisa tra imprese, istituzioni e comunità scientifica; è urgente che istituzioni, aziende e comunità scientifiche lavorino insieme per definire standard condivisi, metriche pubbliche e strumenti regolatori.
Serve un’AI che non sia solo “smart”, ma anche sostenibile. Il futuro digitale, se vuole essere davvero verde, dovrà imparare a misurare il suo impatto, ridurlo e soprattutto, renderlo visibile a tutti.