L’impatto dei data center e dell’Intelligenza artificiale sul futuro energetico globale

L’intelligenza artificiale (AI) rappresenta una delle tecnologie più innovative del nostro tempo, ma il suo sviluppo comporta sfide significative in termini di sostenibilità. Le grandi infrastrutture necessarie per supportare l’AI, i data center, sono altamente energivore, richiedono enormi quantità di acqua per il raffreddamento dei computer e contribuiscono significativamente alle emissioni di CO2. Questa pressione […] L'articolo L’impatto dei data center e dell’Intelligenza artificiale sul futuro energetico globale proviene da Economy Magazine.

Mar 19, 2025 - 07:38
 0
L’impatto dei data center e dell’Intelligenza artificiale sul futuro energetico globale

L’intelligenza artificiale (AI) rappresenta una delle tecnologie più innovative del nostro tempo, ma il suo sviluppo comporta sfide significative in termini di sostenibilità. Le grandi infrastrutture necessarie per supportare l’AI, i data center, sono altamente energivore, richiedono enormi quantità di acqua per il raffreddamento dei computer e contribuiscono significativamente alle emissioni di CO2. Questa pressione energetica si inserisce in una competizione globale, dove Stati Uniti e Cina non si sfidano solo sul fronte tecnologico dell’intelligenza artificiale, ma anche sulla capacità di generare energia sufficiente per alimentare il suo progresso. In questo contesto, lo sviluppo delle energie rinnovabili assume un ruolo cruciale, diventando una delle chiavi per coniugare innovazione tecnologica e sostenibilità ambientale.

Evoluzione dell’Intelligenza Artificiale: il primo tema è l’energia

L’AI consiste, nella definizione di Ilya Sutskever (1), di “cervelli digitali dentro grandi computer”.
Quando parliamo di “grandi computer”, il riferimento è ai data center che sono diventati i pilastri essenziali della nostra era digitale, alimentando applicazioni come, appunto, l’intelligenza artificiale (IA), il cloud computing e i social media. La loro espansione pone sfide significative in termini di consumo energetico, approvvigionamento di materiali e sostenibilità.
Secondo un’analisi di Barclays Research pubblicata nel giugno 2024, la domanda annuale di energia per i data center negli Stati Uniti potrebbe aumentare tra il 14% e il 21% ogni anno fino al 2030, triplicando dai 150-175 TWh del 2023 fino a 560 TWh. Questo incremento rappresenterebbe il 13% dell’attuale domanda elettrica degli Stati Uniti, principalmente a causa dell’espansione delle attività legate all’IA.
Nel marzo 2024, nel mondo si contavano circa 10.655 data center, di cui più della metà (5.381) situati negli Stati Uniti, un aumento significativo rispetto agli 8.000 data center del 2021. Questo riflette la crescente competizione tra Stati Uniti e Cina nel settore dell’IA, con la corsa alla costruzione di nuove infrastrutture informatiche per supportare l’espansione dei modelli generativi e delle reti neurali avanzate.
L’Electric Power Research Institute ha delineato quattro possibili scenari di crescita per il consumo energetico dei data center negli Stati Uniti tra il 2023 e il 2030:

scenario basso: crescita del 3,7% annuo, con il consumo che raggiungerebbe 196,3 TWh nel 2030;

scenario alto: crescita del 15% annuo, portando il consumo a 403,9 TWh, equivalente al 9,1% della domanda elettrica nazionale.

Secondo l’Agenzia Internazionale dell’Energia:
la domanda elettrica globale dei data center potrebbe raggiungere tra 620 e 1.050 TWh entro il 2026, rappresentando il 2-3% del consumo globale di elettricità;
negli Stati Uniti, il consumo dei data center è previsto in aumento dal 4% del totale nazionale nel 2022 al 6% entro il 2026.
Per fare un esempio europeo, i data center in Irlanda rappresentano già il 18% del consumo elettrico nazionale e si prevede che questa percentuale raggiunga il 32% entro il 2026.
Negli Stati Uniti, l’uso di energia è comunque concentrato in pochi Stati: nel 2023, 15 Stati rappresentavano l’80% del consumo totale, tra cui Virginia, Texas, California, Illinois, Oregon, Arizona e Iowa. La Virginia è particolarmente rilevante, con i data center che consumano il 25% del carico elettrico statale, una quota che potrebbe salire al 46% entro il 2030 nello scenario di crescita più elevata che delineeremo tra poco.
L’Iowa è emerso come un centro nevralgico per lo sviluppo dei data center, grazie agli investimenti di aziende tecnologiche come Google e Microsoft. Ad esempio, il complesso di Council Bluffs, avviato da Google nel 2007, è diventato uno dei principali cluster di calcolo. Microsoft, invece, ha svelato la propria infrastruttura a West Des Moines, destinata a supportare applicazioni come ChatGPT e per la quale l’Iowa ha approvato un’agevolazione fiscale del 70% per 56 mln $.
Questi investimenti riflettono una crescente competizione globale per sviluppare infrastrutture di calcolo avanzate, necessarie per sostenere l’intelligenza artificiale generale.
Le applicazioni di intelligenza artificiale generativa, come quelle sviluppate da OpenAI, sono tra i principali motori della crescita dei data center. Sempre Ilya Sutskever ha sottolineato che le prime intelligenze artificiali generali saranno alimentate da enormi data center che consumeranno energia equivalente a milioni di case. Questo scenario richiede un impegno industriale su vasta scala per costruire supercluster energetici e infrastrutture di supporto.
Tuttavia, l’espansione dell’IA ha sollevato preoccupazioni sul consumo energetico. Secondo ricerche recenti, le emissioni di CO₂ dai data center negli Stati Uniti sono triplicate dal 2018. Tra settembre 2023 e agosto 2024, questi hanno prodotto 105 milioni di tonnellate metriche di CO₂, equivalenti al 2,18% delle emissioni totali degli USA.

Evoluzione dell’Intelligenza artificiale: il secondo tema è l’acqua

L’energia non è l’unica risorsa critica per i data center: l’acqua è altrettanto essenziale. Il raffreddamento dei data center, fondamentali per l’elaborazione dell’intelligenza artificiale (IA), richiede ingenti quantità d’acqua per mantenere operative le apparecchiature.
Nel 2022, i data center di Google hanno utilizzato quasi 20 miliardi di litri d’acqua per il raffreddamento, con un aumento del 20% rispetto all’anno precedente. Secondo alcune stime, entro il 2027 il fabbisogno idrico globale dei data center potrebbe oscillare tra 4,2 e 6,6 miliardi di metri cubi, un dato che desta forti preoccupazioni in un contesto di crescente scarsità idrica globale.
Il consumo idrico varia in base alla tecnologia di raffreddamento utilizzata:
sistemi evaporativi: molto diffusi per la loro efficienza energetica, ma richiedono enormi volumi d’acqua;
raffreddamento a circuito chiuso: consuma meno acqua rispetto ai sistemi evaporativi, ma necessita di più energia;
data center subacquei (es. Microsoft Natick): sfruttano l’acqua dell’oceano per ridurre i costi di raffreddamento, il consumo di acqua dolce e migliorare l’efficienza energetica.
In alcune aree, il consumo idrico dei data center sta aggravando problemi ambientali già critici. Negli Stati Uniti, un data center medio può consumare fino a 1,7 milioni di litri d’acqua al giorno. In Stati come Arizona, Texas e California, questo pone serie problematiche in termini di gestione delle risorse idriche.
Inoltre, l’uso dell’intelligenza artificiale per ottimizzare i sistemi di raffreddamento sta emergendo come soluzione promettente. Algoritmi di deep learning analizzano continuamente dati da migliaia di sensori che monitorano temperatura, umidità e carico di lavoro, suggerendo regolazioni in tempo reale per migliorare l’efficienza e ridurre il consumo d’acqua.
Le principali aziende tecnologiche stanno implementando strategie per ottimizzare l’uso delle risorse nei data center:
– Water-Positive Strategy: Microsoft e Google puntano a restituire più acqua di quella consumata entro il 2030;
– AI-driven cooling: l’uso dell’IA per regolare la temperatura dei server in tempo reale consente di ridurre il consumo idrico fino al 30%;
energie rinnovabili: grandi aziende come Amazon Web Services (AWS) investono sempre più in energia solare ed eolica per alimentare i loro data center;
– raffreddamento a immersione: riduce drasticamente il consumo d’acqua e aumenta l’efficienza energetica.
In conclusione, il crescente consumo d’acqua dei data center rappresenta una sfida ambientale significativa. Tuttavia, attraverso l’adozione di tecnologie innovative e strategie sostenibili, è possibile mitigare l’impatto ambientale e garantire un uso più efficiente delle risorse idriche.

Il cuore dell’AI: le Graphics Processing Unit (GPU) di Nvidia

Le GPU (2), inizialmente concepite per migliorare le grafiche nei videogiochi, si sono rivelate essenziali per l’AI grazie alla loro capacità di eseguire calcoli paralleli su larga scala e di elaborare enormi quantità di dati con grande efficienza. Nvidia domina il settore con GPU come l’H100 e l’A100, progettate specificamente per accelerare i calcoli AI, diventando così il punto di riferimento per applicazioni come il deep learning e l’AI generativa.
Nel 2025, Nvidia ha lanciato la serie di schede grafiche GeForce RTX 5000, con il modello di punta RTX 5090. Questa nuova GPU sfrutta DLSS 4, una tecnologia basata sull’intelligenza artificiale che permette di generare la maggior parte dei pixel senza doverli calcolare tradizionalmente, migliorando le prestazioni fino a otto volte rispetto al rendering classico.
La RTX 5090 è un concentrato di potenza, con 21.760 core CUDA e 32 GB di memoria GDDR7, offrendo prestazioni fino a 1,7 volte superiori rispetto alla generazione precedente.
Ma Nvidia non si limita a produrre schede grafiche: sviluppa anche soluzioni complete per il mondo dell’intelligenza artificiale, come i supercomputer DGX e l’ambiente di programmazione CUDA (3), che permette agli sviluppatori di sfruttare al massimo le sue GPU. Grazie a queste innovazioni, l’addestramento di modelli avanzati di IA diventa più accessibile, accelerando progressi in campi come il riconoscimento vocale e la visione artificiale.
Nvidia non produce direttamente i suoi semiconduttori, ma collabora con partner come la taiwanese TSMC per assicurarsi tecnologie produttive all’avanguardia. Inoltre, con iniziative come lo sviluppo delle CPU Grace, Nvidia amplia il proprio raggio d’azione, sfidando aziende storiche come Intel e AMD e consolidando il suo ruolo nell’intero ecosistema tecnologico.
La crescente domanda energetica dei data center impone soluzioni innovative. Nvidia risponde con GPU ottimizzate per il rapporto prestazioni/watt, sistemi di raffreddamento avanzati, come il raffreddamento liquido (4) e software come CUDA per ridurre i consumi. L’azienda promuove anche l’uso di energie rinnovabili e integra tecnologie di fabbricazione sostenibili nei suoi processi produttivi, dimostrando un impegno concreto per l’ambiente.
Per dare un’idea, negli ultimi cinque anni, Nvidia ha registrato una crescita eccezionale del fatturato, trainata principalmente dalla crescente domanda di soluzioni per l’intelligenza artificiale e dall’espansione dei data center, passando dai 10,92 mld $ del 2020, ai 60,92 mld $ del 2024 (dato stimato), con un incremento di oltre il 450%.
Gli analisti stimano che il segmento dei data center di Nvidia potrebbe generare ricavi superiori a 100 mld $ nell’anno fiscale 2025, con un tasso di crescita annuale composto (CAGR) di circa il 47% fino al 2027.
Insomma, le tecnologie Nvidia alimentano data center, supercomputer e infrastrutture cloud di aziende leader come Google e Amazon. Le sue soluzioni sono indispensabili per addestrare reti neurali complesse e per applicazioni di intelligenza artificiale in tempo reale, come le chatbot avanzate e i sistemi di visione artificiale.
Nvidia si posiziona come un pilastro della rivoluzione AI, combinando innovazione tecnologica e attenzione alla sostenibilità. La sua capacità di offrire soluzioni scalabili e ad alte prestazioni non solo accelera lo sviluppo dell’AI, ma dimostra anche che progresso tecnologico e responsabilità ambientale possono andare di pari passo.

Data center e geopolitica: la corsa USA-Cina

L’espansione dei data center non è solo una questione tecnologica, ma anche geopolitica. Stati Uniti e Cina si stanno sfidando non solo per il dominio dell’IA, ma anche per il controllo delle risorse energetiche necessarie ad alimentarla.
La Cina, ad esempio, ha dimostrato una capacità superiore rispetto agli Stati Uniti nel realizzare nuove centrali elettriche e reti di distribuzione su larga scala per garantire un flusso energetico costante ai suoi data center.
Secondo alcune proiezioni, entro il 2026 i data center cinesi potrebbero consumare 300 TWh di energia all’anno, spinti dall’espansione delle reti 5G e dell’Internet delle cose (IoT).
Nel frattempo, gli Stati Uniti stanno cercando soluzioni innovative come l’uso di piccoli reattori nucleari modulari (SMR) per garantire un’alimentazione stabile e ridurre l’impatto ambientale.

Efficienza e innovazione

Per mitigare l’impatto ambientale, molte aziende stanno adottando strategie innovative. Google, Microsoft e altri attori del settore puntano su algoritmi di ottimizzazione energetica, bilanciamento geografico dei carichi di lavoro e utilizzo di energie rinnovabili. Tuttavia, nonostante questi sforzi, il consumo energetico dei data center continua a crescere a ritmi esponenziali. Inoltre, tecnologie come il raffreddamento liquido e il geographical load balancing stanno contribuendo a migliorare l’efficienza complessiva.
Per affrontare queste sfide, aziende tecnologiche stanno valutando l’adozione di piccoli reattori nucleari per alimentare i data center, garantendo una fornitura energetica affidabile e a basse emissioni.

L’occupazione generata dai data center

I data center offrono opportunità occupazionali sia nella fase di costruzione che nella gestione operativa, sebbene con dinamiche molto diverse. Durante la fase di costruzione, la domanda di manodopera è elevata e coinvolge una vasta gamma di professionalità: dagli ingegneri edili agli installatori di infrastrutture, fino agli operai specializzati. Questa fase può generare migliaia di posti di lavoro temporanei per ogni progetto. Un esempio significativo è rappresentato dal nuovo data center di Google a Cedar Rapids, Iowa, che ha creato centinaia di posti di lavoro nel settore delle costruzioni.
Una volta completati, i data center richiedono un numero relativamente ridotto di lavoratori per le operazioni quotidiane. Le posizioni includono tecnici IT, operatori di manutenzione e responsabili della sicurezza. Ad esempio, il cluster di Google a Council Bluffs impiega circa 900 dipendenti, includendo sia personale diretto che terzisti, mentre il supercomputer di Microsoft in Iowa conta circa 300 lavoratori diretti, con piani di espansione futura. Tuttavia, l’automazione e l’efficienza gestionale tendono a limitare ulteriori aumenti occupazionali nella fase operativa.

Prospettive future

La crescita esponenziale dei data center impone una riflessione su come bilanciare innovazione tecnologica e sostenibilità ambientale. Il settore sta investendo in soluzioni sempre più avanzate per ottimizzare il consumo energetico e idrico, ma resta fondamentale il ruolo delle politiche pubbliche per incentivare modelli di sviluppo più sostenibili.
Il futuro dei data center è intrecciato con quello dell’energia. La costruzione di un supercluster energetico da 100 GW, equivalente al consumo di una nazione medio-piccola, è una delle visioni più ambiziose per sostenere l’intelligenza artificiale generale. Tuttavia, la realizzazione di queste infrastrutture richiede una collaborazione pubblico-privata e un ripensamento delle attuali politiche ambientali.
Le implicazioni ambientali restano un tema cruciale: l’aumento della domanda elettrica globale dei data center, combinato con le sfide legate alla scarsità idrica (i data center consumano enormi quantità di acqua per il raffreddamento) e alle emissioni (la corsa ai data center ne ha portato negli ultimi anni ad un aumento consistente), richiede interventi strutturali e innovazioni tecnologiche continue. Ad esempio, l’adozione di standard di efficienza energetica come il PUE (Power Usage Effectiveness), l’utilizzo di fonti rinnovabili e la Water-Positive Strategy, che punta a restituire più acqua di quella consumata entro il 2030, saranno essenziali per garantire che l’espansione dell’intelligenza artificiale non avvenga a scapito del pianeta.
La corsa ai data center rappresenta una sfida complessa e cruciale per la nostra società. Bilanciare innovazione tecnologica, sostenibilità energetica e competitività globale sarà fondamentale per garantire un futuro equilibrato e prospero.
La sfida ora è chiara: creare un’infrastruttura digitale capace di sostenere il futuro dell’IA, minimizzando al contempo il suo impatto ecologico.

(1) lya Sutskever, co-fondatore di OpenAI, è una figura di rilievo nel campo dell’intelligenza artificiale. Ha contribuito alla creazione di modelli di rete neurale avanzati e è stato pioniere nello sviluppo di tecnologie che oggi guidano l’intelligenza artificiale generativa.

(2) Una GPU (Graphics Processing Unit) è un processore specializzato progettato per gestire grandi volumi di calcoli in parallelo, originariamente sviluppato per migliorare la grafica nei videogiochi. Grazie alla sua architettura altamente parallela, è ideale per attività complesse come l’elaborazione di dati e l’addestramento di reti neurali nell’intelligenza artificiale.

(3) CUDA è l’acronimo di Compute Unified Device Architecture. Si tratta di una piattaforma di calcolo parallelo sviluppata da Nvidia che consente agli sviluppatori di sfruttare la potenza di calcolo delle GPU per eseguire operazioni complesse, come l’addestramento di modelli di intelligenza artificiale, la simulazione scientifica e l’editing video avanzato. CUDA permette di eseguire codice general-purpose su GPU, utilizzando linguaggi di programmazione come C, C++ e Python, offrendo enormi vantaggi rispetto ai processori tradizionali (CPU) in termini di velocità ed efficienza.

(4) Il raffreddamento liquido è una tecnologia usata per mantenere i componenti hardware, come le GPU, a temperature ottimali durante il funzionamento. Invece di usare solo ventole, impiega un liquido speciale, in un circuito chiuso, che assorbe il calore dai componenti e lo trasferisce a un radiatore, dove viene dissipato. Questo metodo è più efficiente rispetto al raffreddamento ad aria, silenzioso e adatto a gestire il calore generato da sistemi ad alte prestazioni, come data center o computer per l’intelligenza artificiale. Al contrario, i sistemi di raffreddamento a liquido aperti o che integrano tecnologie come il raffreddamento evaporativo, presentano consumi d’acqua significativi, specialmente in climi caldi, dove è necessario dissipare enormi quantità di calore.

L'articolo L’impatto dei data center e dell’Intelligenza artificiale sul futuro energetico globale proviene da Economy Magazine.