Indice dei contenuti
Quanto consuma davvero l’IA? Se in casa avete mai acceso un microonde pensando di fare un interrogatorio serrato a una IA, forse è il momento di prepararsi psicologicamente: l’energia consumata dall’intelligenza artificiale non è poca roba, ma neanche da incubo apocalittico. Insomma, l’IA beve elettricità come se fosse caffè, ma non tanto da farvi saltare la bolletta o costringervi a vendere il frigorifero.

Consumo energetico quotidiano: un dato rapido
Una singola domanda rivolta a un sistema di AI moderno, come chatGPT o Gemini, consuma per rispondere circa tra 0,2 e 3 wattora di energia elettrica, più o meno come tenere acceso un piccolo elettrodomestico per pochi secondi.
Per essere chiari, fare una domanda a un’IA equivale a guardare un video in streaming per poco meno di un minuto, o a tenere acceso un microonde per qualche secondo. Un dato che, preso singolarmente, fa sorridere, ma il vero problema sta nell’insieme delle richieste a livello globale.
L’impatto energetico dei data center IA
L’energia necessaria per far funzionare un’IA non deriva solo dall’input di un utente isolato, bensì dal nugolo di giganteschi datacenter in tutto il mondo che elaborano, addestrano e rispondono a milioni di richieste ogni giorno.
Secondo l’Agenzia Internazionale dell’Energia (IEA), il consumo dei data center dedicati all’IA si avvicina oggi a circa 200-350 TWh annui, in pratica tra l’1% e l’1,3% del consumo globale di elettricità. Nel 2030 questa cifra potrebbe quadruplicare, superando abbondantemente il consumo attuale di nazioni come il Giappone.
Consumi energetici IA – Dati chiave attuali e previsionali
| Aspetto | Valore attuale (2025) | Proiezione 2030 |
|---|---|---|
| Consumo energetico data center | 200-350 TWh annui | Fino a 945 TWh annui |
| Percentuale consumo globale IA | 1-1,3% del consumo globale elettrico | Quadruplicazione del consumo IA |
| Emissioni CO2 per sviluppo IA | 284 tonnellate per singolo modello | Incremento legato all’espansione |
| Acqua per raffreddamento | 175 miliardi litri annui | 664 miliardi litri annui |
Perché l’IA consuma così tanta energia?
L’elemento principale è nella complessità di “addestrare” i modelli, cioè nel calcolo di miliardi di parametri e dati grazie a chip specializzati GPU ad altissima potenza. Una singola operazione di addestramento dei modelli più grandi può richiedere energia comparabile a quella consumata da un’intera città media italiana in un anno. In più:
- L’IA sta entrando in tanti servizi quotidiani, aumentando enormemente la mole di dati da processare.
- I data center non solo consumano energia per calcolo, ma anche per raffreddare l’hardware, con un impatto ambientale consistente sull’acqua.
- La produzione di hardware specializzato per IA è a sua volta energivora e inquinante.
Più l’IA diventa smart, più il pianeta diventa… meno smart. Ogni volta che consultiamo l’IA, stiamo facendo girare enormi turbine di elettricità, non solo per rispondere alla domanda, ma anche per mantenere freddi i server e fabbricare i chip che permettono l’uso di questa magia digitale.
Se il consumo lordo di un GPT gigante fosse una macchina, sarebbe decisamente una di quelle con serbatoio infinito, ma il carburante è la nostra pazienza (e una buona fetta di elettricità globale).
Quindi, più che chiedersi quanto consuma l’IA, sarebbe interessante domandarsi chi, tra noi umani, sarà pronto a pagare il conto di energia e di bolletta senza abbandonare il comfort digitale. Nel frattempo, la prossima volta che lanci una domanda all’IA, ricorda: non è gratis, è solo molto, molto invisibile.
Scopri la sezione Curiosità dal mondo per ulteriori contenuti di approfondimento, naviga tra le righe e soddisfa la tua curiosità.
