Intelligenza artificiale, così i data center stanno prosciugando le risorse del Pianeta (letteralmente)

Meta sta costruendo il suo più grande centro dati di sempre: un colosso più di350mila metri quadri a Richland Parish, Louisiana, con un investimento di 10 miliardi di dollari. Questo impianto, previsto per il 2030, sarà il cuore pulsante delle operazioni di intelligenza artificiale dell’azienda, supportando modelli come LLaMA e piattaforme come Facebook, Instagram e...

Mag 16, 2025 - 14:10
 0
Intelligenza artificiale, così i data center stanno prosciugando le risorse del Pianeta (letteralmente)

Meta sta costruendo il suo più grande centro dati di sempre: un colosso più di350mila metri quadri a Richland Parish, Louisiana, con un investimento di 10 miliardi di dollari. Questo impianto, previsto per il 2030, sarà il cuore pulsante delle operazioni di intelligenza artificiale dell’azienda, supportando modelli come LLaMA e piattaforme come Facebook, Instagram e Threads.

Meta prevede che la costruzione – ha affermato – “svolgerà un ruolo vitale nell’accelerare i nostri progressi nell’intelligenza artificiale”. Ne abbiamo proprio bisogno? La domanda rischia di cadere nel vuoto: il mega progetto è posto in essere con il fornitore di servizi pubblici locale, Entergy, con sede a New Orleans, che ha richiesto l’approvazione statale accelerata per la costruzione di tre impianti a gas con turbina a combustione al fine di generare 2.300 megawatt di elettricità.

Leggi anche: Sai quanta acqua consuma l’intelligenza artificiale? Almeno mezzo litro con appena 5 domande a ChatGPT

Dietro l’innovazione, dunque, si nasconde una realtà molto meno brillante: il costo ambientale ed economico di queste immense infrastrutture prosciuga ogni tipo di risorsa e ricadrà su cittadini e ambiente anche in tempi molto rapidi.

L’impatto ambientale dell’AI

I data center sono noti per il loro elevato consumo di risorse. Oltre all’energia, necessitano di grandi quantità d’acqua per il raffreddamento. Secondo le previsioni, l’IA potrebbe consumare fino a 6,6 miliardi di metri cubi d’acqua entro il 2027. Inoltre, l’addestramento di modelli IA genera significative emissioni di CO₂. Ad esempio, l’addestramento di GPT-3 ha prodotto circa 552 tonnellate metriche di CO₂, equivalenti alle emissioni annuali di 123 auto a benzina.

Ma chi paga il conto?

Entergy ha dichiarato che i costi delle nuove centrali non ricadranno sui consumatori. Tuttavia, documenti ufficiali indicano che l’azienda ha chiesto l’approvazione per recuperare parte dei costi attraverso le tariffe dei clienti. Organizzazioni ambientaliste e gruppi di consumatori temono che, in caso di calo della domanda energetica da parte di Meta, i cittadini potrebbero trovarsi a coprire i costi delle infrastrutture inutilizzate. Staremo a vedere.

Intanto è chiara una cosa: dell’AI c’è un aspetto ancora troppo – pericolosamente – trascurato: il costo energetico legato allo sviluppo e all’uso quotidiano di queste tecnologie.

Per far funzionare i modelli AI servono enormi quantità di energia. Anche operazioni apparentemente banali, come generare un’immagine o un testo, richiedono calcoli complessi eseguiti da server potenti. Secondo una ricerca condotta da Hugging Face insieme alla Carnegie Mellon University, creare una singola immagine con i modelli di intelligenza artificiale più usati consuma, in pochi secondi, la stessa energia necessaria per ricaricare uno smartphone da zero.

Considerando che questi sistemi vengono interrogati miliardi di volte al giorno – per scrivere e-mail, creare contenuti o analizzare dati – l’impatto ambientale diventa tutt’altro che marginale. Alimentare l’intelligenza artificiale significa anche emettere gas serra come la CO₂, e diversi studi stanno iniziando ad analizzare in modo più approfondito questo effetto collaterale

Quanta CO₂ produce l’intelligenza artificiale?

Parlando di carbon footprint – ovvero l’impronta di CO₂ – dei modelli generativi, il livello di emissioni dipende da due fattori principali: il consumo energetico dei server e il tipo di fonte usata per generare elettricità.

Nei Paesi dove l’energia proviene soprattutto da fonti rinnovabili o nucleari, le emissioni sono sensibilmente più basse. Al contrario, in aree fortemente dipendenti dai combustibili fossili – come gli Stati Uniti, dove ha sede gran parte delle startup del settore – l’impatto in termini di CO₂ può essere decisamente più elevato.

Il consumo d’acqua dell’AI

Il Washington Post e l’Università della California Riverside hanno inoltre confermato che i modelli AI richiedono acqua a go go: le esigenze di raffreddamento dei server portano a volte all’uso di torri di raffreddamento dove il calore è ceduto all’acqua. L’acqua utilizzata è in parte persa per evaporazione e in parte riciclata dalle 3 alle 10 volte prima di essere scaricata in fogna, per evitare la concentrazione di batteri o sali minerali.

Secondo i risultati dello studio, una mail di 100 parole scritta da ChatGPT-4 può “consumare” più di mezzo litro d’acqua: se un americano su 10 impiegati inviasse ad oggi una mail con ChatGPT-4 alla settimana, i server utilizzerebbero 435 milioni di litri d’acqua all’anno, il fabbisogno idrico di un giorno e mezzo dell’area di Rhode Island (circa 1 milione di abitanti).

La corsa all’IA promette innovazioni straordinarie, ma è fondamentale considerare i costi nascosti. Il mega data center di Meta in Louisiana rappresenta un esempio emblematico delle sfide che ci attendono: bilanciare progresso tecnologico, sostenibilità ambientale e giustizia sociale.

È essenziale che aziende, governi e cittadini collaborino per garantire che la rivoluzione dell’IA non avvenga a spese del nostro pianeta e delle generazioni future.

Non vuoi perdere le nostre notizie?

Leggi anche: