L’intelligenza artificiale generativa sta diventando sempre più parte della nostra quotidianità. Dai suggerimenti nei motori di ricerca alla scrittura automatica di email, fino al supporto nei compiti scolastici, i modelli generativi sono ormai ovunque. Ma ogni prompt, ogni risposta, ogni conversazione con un chatbot ha un costo invisibile, che si misura in energia consumata e gas serra emessi.
Lo scorso anno, un rapporto del Dipartimento dell’Energia degli Stati Uniti ha lanciato l’allarme: l’adozione dell’AI potrebbe far salire la quota di elettricità nazionale consumata dai data center dal 4,4% al 12% entro il 2028. Una crescita che, secondo le stime, porterà alcune centrali a bruciare più carbone e gas naturale per soddisfare la nuova domanda.
Indice degli argomenti:
AI e impatto ambientale: non tutti i chatbot inquinano allo stesso modo
Una nuova ricerca, pubblicata sulla rivista Frontiers in Communication, ha analizzato l’impatto ambientale di diversi chatbot basati su modelli linguistici di grandi dimensioni (Large Language Models, LLM). Gli autori hanno scoperto che i modelli con “cervelli” più grandi – ovvero più parametri e più potenza computazionale – consumano molta più energia, anche se spesso risultano più precisi nelle risposte. Ma solo fino a un certo punto.
“Non abbiamo sempre bisogno del modello più grande e pesantemente addestrato per rispondere a domande semplici. Anche i modelli più piccoli sono in grado di svolgere bene compiti specifici”, spiega Maximilian Dauner, dottorando alla Munich University of Applied Sciences e primo autore dello studio. “L’obiettivo dovrebbe essere scegliere il modello giusto per il compito giusto.”
La prova su 14 modelli di AI: accuratezza vs emissioni
Lo studio ha valutato 14 modelli open source di intelligenza artificiale generativa, ponendo loro 500 domande a risposta multipla e 500 a risposta aperta su cinque materie differenti. Dauner ha poi misurato l’energia consumata da ciascun modello e l’ha convertita in equivalenti di CO₂, utilizzando medie globali.
I risultati mostrano che le domande di logica astratta – come quelle di algebra – tendono a generare risposte più lunghe, quindi richiedono più energia rispetto a domande più “fattuali”, come quelle di storia.

Non solo: i chatbot che esplicitano i ragionamenti passo dopo passo durante la risposta consumano molta più energia rispetto a quelli che danno direttamente una risposta. Eppure, i cinque modelli di “reasoning” analizzati nello studio non sono risultati significativamente più precisi degli altri nove.
Il modello più impattante in termini di emissioni è stato DeepSeek-R1, che ha fornito risposte accurate quanto altri modelli che emettevano solo un quarto delle sue emissioni.

I limiti della ricerca: pochi modelli e medie globali
Lo studio ha dei limiti importanti. Non include, ad esempio, modelli proprietari tra i più diffusi, come ChatGPT di OpenAI o Gemini di Google. Inoltre, la conversione da consumo energetico a emissioni è stata effettuata utilizzando una media globale della CO₂, senza considerare le specificità geografiche dei data center utilizzati. “Alcune regioni utilizzano energia rinnovabile, altre sono alimentate principalmente da fonti fossili”, spiega Jesse Dodge, senior research scientist all’Allen Institute for AI, non coinvolto nello studio.
Nel 2022, lo stesso Dodge aveva condotto uno studio che confrontava le emissioni generate dall’addestramento di un LLM in 16 aree del mondo. A seconda del periodo dell’anno, le aree con maggiore intensità carbonica, come il Midwest americano, emettevano anche tre volte di più rispetto a quelle più “green”, come la Norvegia.
Quando la lunghezza delle risposte aumenta le emissioni
Secondo Dauner, “per alcune materie, un LLM deve usare più parole per fornire una risposta accurata. Risposte più lunghe e che includono un processo di ragionamento generano più emissioni.”
Ma è davvero la materia a determinare questo impatto? Non proprio, secondo Sasha Luccioni, AI & Climate Lead presso Hugging Face: “Ciò che conta non è il fatto che si tratti di matematica o filosofia, ma la lunghezza dell’input e dell’output,” spiega.
Luccioni ha condotto un altro studio lo scorso anno su 88 LLM, giungendo a conclusioni simili: i modelli più grandi tendono ad avere emissioni maggiori. Ha inoltre rilevato che la generazione di testo — ciò che fanno i chatbot — consuma circa dieci volte più energia rispetto a compiti più semplici, come la classificazione automatica delle email.
Meglio usare un motore di ricerca (o una calcolatrice)
Un altro punto sottolineato da Luccioni è che l’attenzione mediatica sui modelli generativi ha oscurato l’efficienza degli strumenti “tradizionali”. La maggior parte degli utenti, ha spiegato, non ha nemmeno bisogno di un LLM per le attività quotidiane. “Stiamo reinventando la ruota,” ha dichiarato. “Le persone non hanno bisogno di usare un modello generativo per fare un calcolo. Usiamo una calcolatrice per fare i calcoli.”
Anche Jesse Dodge ha ribadito che, per ricerche di fatti, è più efficace un semplice motore di ricerca, dato che i modelli generativi possono “allucinare” informazioni errate.
Sostenibilità e intelligenza artificiale: una sfida di equilibrio
In conclusione, l’articolo mette in luce una questione spesso trascurata nel dibattito sull’intelligenza artificiale: il suo impatto ambientale. Scegliere il modello giusto – non necessariamente il più potente – può significare ridurre drasticamente il consumo energetico e le emissioni di CO₂.
Una scelta tecnologica più consapevole è possibile. E necessaria, se vogliamo conciliare l’innovazione con la sostenibilità.