L’AI ha fame di energia e sete di acqua, ma le alternative ci sono

Alla fine anche l’Agenzia internazionale per l’energia (Iea) si è espressa sul tema del momento, l’intelligenza artificiale. Secondo il Rapporto “Energy and AI”, entro la fine di questo decennio la corsa globale alla tecnologia richiederà un consumo energetico pari a quello del Giappone. E solo la metà potrà venire da fonti rinnovabili. I numeri dello Iea […] The post L’AI ha fame di energia e sete di acqua, ma le alternative ci sono appeared first on Key4biz.

Apr 18, 2025 - 09:29
 0
L’AI ha fame di energia e sete di acqua, ma le alternative ci sono

Alla fine anche l’Agenzia internazionale per l’energia (Iea) si è espressa sul tema del momento, l’intelligenza artificiale. Secondo il Rapporto “Energy and AI”, entro la fine di questo decennio la corsa globale alla tecnologia richiederà un consumo energetico pari a quello del Giappone. E solo la metà potrà venire da fonti rinnovabili.

I numeri dello Iea dicono che entro il 2030 il consumo di elettricità potrebbe “più che raddoppiare”. Negli Stati Uniti, ad esempio, il settore dell’elaborazione dati consumerà più elettricità di: acciaio, cemento, prodotti chimici e altri beni ad alto consumo energetico messi insieme.

Le aziende andranno quindi a caccia di energia in pronta consegna, che potrebbe venire dalle centrali a gas, ormai prossime alla chiusura in molti Paesi sviluppati, o anche da quelle a carbone, che potrebbero vivere una seconda giovinezza, specialmente in America sotto l’amministrazione Trump.

L’Iea sottolinea però che i timori che la rapida adozione dell’intelligenza artificiale possa gravare sulla crisi climatica sono “esagerati”. L’AI potrebbe apportare delle migliorie e ridurre le emissioni di gas serra complessive, semplificando la progettazione di reti elettriche per assorbire più energia rinnovabile, individuando inefficienze nei sistemi energetici e nei processi industriali, inventandosi nuove tecnologie, pianificando il trasporto pubblico in maniera ottimale. 

Solo che le probabilità che queste azioni controbilancino i consumi energetici da capogiro non sono così scontate. È il motivo per cui il Guardian, commentando il rapporto Iea, ha detto che l’Agenzia ci è andata stavolta un po’ troppo leggera con la sua analisi. Più lapidario è stato Claude Turmes, ex eurodeputato dei Verdi e ministro dell’energia del Lussemburgo, che ha accusato l’Iea di aver dipinto un quadro troppo roseo: “Invece di fornire raccomandazioni pratiche ai governi su come regolamentare e quindi minimizzare l’enorme impatto negativo dell’intelligenza artificiale e dei nuovi mega data center sul sistema energetico, l’Iea e il suo [capo] Fatih Birol stanno facendo un gradito regalo alla nuova amministrazione Trump e alle aziende tecnologiche che hanno sponsorizzato questo nuovo governo statunitense”.

Quindi, come stanno veramente le cose?

A secco

I data center sono posti enormi e molto caldi, pieni di server in funzione h24. Per tenerli freschi e far funzionare le macchine al meglio c’è bisogno di mantenerle alla giusta temperatura, tramite acqua fredda (tantissima acqua), vaporizzazione, condizionatori. Il Washington Post, in collaborazione con l’Università della California di Riverside, ha calcolato che per ogni testo di cento parole scritto da ChatGPT si consuma in media una bottiglietta d’acqua (e quanto si parla di immagini, come è accaduto per la Ghibli Mania, il costo sale). Perché? “Ogni richiesta su ChatGPT passa attraverso un server che esegue migliaia di calcoli per determinare le parole migliori da usare nella risposta”, si legge sul quotidiano. Quindi maggiore è l’impegno dell’AI maggiore è il calore, e maggiore sarà la quantità di acqua necessaria per raffreddare le apparecchiature. Nelle aree in cui non ci sono risorse idriche a portata di mano, i data center optano per dei simil-condizionatori, che raffreddano le strutture al costo di un bel po’ di energia elettrica.  

Il dispendio energetico dipende anche da dove si trova il data center. Sempre secondo i calcoli del WP, se un abitante del Texas chiede di generare un testo di cento parole a ChatGPT e il data center che risponde si trova in Texas, questo consuma 235 millilitri di acqua (una mezza bottiglietta). Se la stessa richiesta la fa un cittadino di Washington, e il data center si trova comunque in Texas, il costo d’acqua schizza a 1408 millilitri (circa una bottiglia da un litro e mezzo). Questo per ogni testo di cento parole. Se ve lo steste chiedendo, una ricerca su Google consuma più o meno mezzo millilitro d’acqua.

Se poi i data center vengono costruiti in zone a rischio siccità, le probabilità di fare danni irreversibili sono molto alte. Secondo l’inchiesta dell’organizzazione investigativa no-profit SourceMaterial e del GuardianAmazon, Microsoft e Google gestiscono data center in alcune delle zone più aride del mondo, e hanno in progetto di costruirne molti altri: l’analisi di SourceMaterial ha identificato 38 centri attivi di proprietà delle tre big tech nelle zone afflitte da scarsità d’acqua, e 24 in fase di sviluppo.

Perché scegliere zone aride, se sarà più costoso raffreddare i server e più dannoso per le comunità locali? Le aree dell’entroterra, a bassa umidità, riducono il rischio di corrosione dei metalli, ha spiegato al Guardian Lorena Jaume-Palasí, fondatrice di The Ethical Tech Society, organizzazione no-profit che studia gli effetti sulla società dei processi di automazione e digitalizzazione.

Nel 2023, Microsoft ha ammesso che il 42% della sua acqua proveniva da “aree con stress idrico”, mentre Google ha autodichiarato il 15%. Amazon (che tra le tre è quella che detiene più data center) non ha fornito dati. I piani delle big tech sono di aumentare del 78% il numero di centri in giro per il mondo: a oggi, se teniamo conto anche delle strutture costruite in zone non sottoposte a stress idrico, sono 632 i centri attivi o in fase di sviluppo di proprietà dei tre colossi tech.

Per parlare di un caso a noi abbastanza vicino, Amazon ha dichiarato recentemente di voler costruire tre nuovi data center nella regione di Aragona (che ne ospita già altri), nel nord della Spagna. Questi centri saranno autorizzati a usare circa 755.720 metri cubi di acqua all’anno, sufficienti per irrigare 233 ettari di terreno (circa 340 campi da calcio). Nella pratica, però, il consumo di acqua sarà più elevato, perché la cifra non tiene conto delle risorse idriche utilizzate per generare l’energia che servirà agli impianti.

Si prevede che i nuovi data center spagnoli consumeranno più elettricità di quanto ne usi attualmente l’intera regione. E Amazon ha chiesto al governo regionale l’autorizzazione ad aumentare del 48% il consumo di acqua per gli altri centri già in funzione nell’area. Alle proteste di una parte della cittadinanza, la multinazionale di Bezos ha risposto che “il cambiamento climatico porterà a un aumento delle temperature globali e alla frequenza di eventi meteorologici estremi, comprese le ondate di calore”, e quindi i server avranno bisogno di più acqua per raffreddarsi. Il fatto che il cambiamento climatico sia causato proprio da scelte di questo tipo sembra non sfiorare le alte sfere di Amazon.

Aggiungiamo al quadro che il 75% della Spagna è a rischio desertificazione, e la combinazione di crisi climatica più espansione dei data center sta “portando la Spagna sull’orlo del collasso ecologico”, ha detto Jaume-Palasí. Amazon ha assicurato la popolazione locale che utilizzerà l’intelligenza artificiale per aiutare gli agricoltori aragonesi a consumare acqua in modo più efficiente. Il che, detto in altri termini, vuol dire: ti aiuto a rimediare al problema che ti ho creato.

Microsoft e Google non sono da meno. Stanno costruendo data center un po’ ovunque, e allo stesso tempo puntano a diventare “water positive” entro il 2030 (come anche Amazon). Le politiche “water positive” si ispirano a quelle applicate per le emissioni di anidride carbonica, e che vanno sotto il nome di “carbon neutral”, ovvero: se emetto un quantitativo di CO2 in un Paese, posso “compensare” piantando alberi in un altro. Per le risorse idriche si tratterebbe di fornire acqua in alcune zone del mondo per bilanciare i danni causati in altre. Ma la compensazione idrica non funziona come quella delle emissioni. Migliorare l’accesso all’acqua in una zona non aiuta in alcun modo la comunità che ne ha perso l’accesso in un’altra. “Il carbonio è un problema globale, l’acqua è più localizzato”, ha spiegato Aaron Wemhoff, specialista in efficienza energetica della Villanova University in Pennsylvania.  

Negli Stati Uniti, Google ha sette data center attivi nelle zone a rischio. La contea di Maricopa, in Arizona, ospita sia centri di Google che di Microsoft, e nonostante la National oceanic and atmospheric administration abbia avvertito che l’area è a rischio “siccità estrema” (a giugno 2023 i funzionari statali hanno dovuto revocare i permessi di costruzione di alcune abitazioni per la mancanza di falde acquifere), Google sta per aprire un secondo data center, mentre il primo già beve 5,5 milioni di metri cubi di acqua all’anno, la stessa quantità consumata da 23mila cittadini dell’Arizona.

Per finire: a gennaio Trump ha dato il via allo “Stargate Project”, che ha definito “il più grande progetto infrastrutturale di intelligenza artificiale della storia”. Si parla di 500 miliardi di dollari per la costruzione di nuovi data center, e non solo.

Soluzioni?

Il giorno prima dell’annuncio dello Stargate Project, DeepSeek lanciava il proprio modello di intelligenza artificiale, che oltre a essere costato di meno richiede meno potenza di calcolo, e quindi meno acqua. Del resto, anche la Cina ha lo stesso problema del resto del mondo: secondo l’organizzazione non profit China Water Risk, il Paese potrebbe presto utilizzare circa 1298 miliardi di litri d’acqua per i suoi data center (l’equivalente del consumo idrico residenziale di 26 milioni di persone), ed entro il 2030 questo numero potrebbe raddoppiare, raggiungendo il fabbisogno idrico dell’intera Corea del Sud.  

Più di recente, Bloomberg ha annunciato che Microsoft sta ritirando alcuni progetti per nuovi data center, e ha pubblicato dei piani per un centro “a zero consumi idrici”. Google ha assicurato che utilizzerà forme più efficienti di raffreddamento, risparmiando acqua (anche se non è ancora chiaro in che modo).

Qualche spiraglio quindi c’è, anche se bisogna capire di quale spiraglio si tratti. Microsoft sta facendo pressione per riaprire la centrale nucleare di Three Mile Island in Pennsylvania (quella del peggior incidente nucleare nella storia Usa) in modo da soddisfare l’enorme richiesta di energia della sua AI. Mentre Sam Altman, Ceo di OpenAI, punta tutto sulla fusione nucleare, l’“energia delle stelle” che l’azienda Helion Energy promette di rendere disponibile dal 2028 (molto difficile).

Anche la geotermia è una risorsa a cui le big tech stanno guardando con interesse: Meta e Google stanno collaborando con le imprese geotermiche per alimentare le loro infrastrutture energetiche con una fonte sostenibile e stabile. Anche se gli alti costi iniziali per le trivellazioni e i permessi per la costruzione di nuove centrali potrebbero rappresentare un forte ostacolo.

Sulle altre fonti rinnovabili, come solare ed eolico, c’è chi è particolarmente ottimista: secondo un report della società di consulenza Business critical solutions (Bcs), entro il 2033 il 90% dell’energia utilizzata dai data center sarà rinnovabile. Le energie pulite potrebbero contribuire anche ad arginare il problema dell’utilizzo di acqua. Dato che pannelli solari e turbine eoliche possono funzionare nei luoghi più disparati, i centri per l’elaborazione dati potrebbero sorgere dove le soluzioni di raffreddamento sono più ecologiche (in montagna si potrebbe utilizzare l’aria esterna, per esempio).

L’AI stessa può contribuire a ridurre il consumo energetico dei data center: ottimizzando i carichi di lavoro, gestendo i sistemi di raffreddamento in tempo reale, prevedendo i guasti e migliorando l’efficienza operativa, sfruttando momenti di abbondanza di energia pulita per eseguire le operazioni ad alto consumo energetico (come l’elaborazione di big data o l’addestramento di modelli di AI) e riservando le altre operazioni per i periodi di magra.

Inoltre, c’è l’opzione di costruire data center sott’acqua. Microsoft ha fatto alcuni esperimenti negli anni per vagliare questa opzione (il Project Natick, al largo della costa pacifica degli Usa e poi nelle isole Orcadi in Scozia), mettendoli in stand-by a causa di problemi logistici, mentre la Cina sta puntando forte su questa strada, e ha costruito l’Hainan Undersea Data Center, nell’isola di Hainan, al largo della costa di Sanya. I vantaggi degli Underwater data center sono svariati: non si occupa spazio sulla terraferma; i server, se posti in un ambiente protetto e sottovuoto, non sono soggetti alla corrosione o ad altri agenti esterni; il calore dei data center sarebbe automaticamente raffreddato dalla temperatura dei fondali marini; i centri si troverebbero vicino alle coste, dove vive (nel raggio di cento chilometri) circa il 40% della popolazione mondiale, rendendo le connessioni più semplici e immediate. Tra gli aspetti negativi c’è il danno ambientale doppio: la deturpazione dei fondali e il riscaldamento degli oceani. Oltre alle difficoltà logistiche, che non sono state ancora completamente superate. 

Per il momento quindi l’AI prende più di quanto dà. Pensare che in futuro il rapporto si ribalterà sicuramente vuol dire muoversi ancora una volta nel solco di un tecnottimismo dalle tinte un po’ troppo rosee – internet prima e i social poi ci hanno insegnato qualcosina a riguardo. Essere consapevoli dei rischi e rimboccarsi le maniche è tutta un’altra storia.

The post L’AI ha fame di energia e sete di acqua, ma le alternative ci sono appeared first on Key4biz.