Ia, sfida per sicurezza energetica: entro 2030 raddoppia domanda elettricità. Aumentano emissioni

Photo credit: AFP

 

‘Dopato’ dall’intelligenza artificiale, il consumo di elettricità dei data center “più che raddoppierà” entro il 2030, rappresentando una sfida per la sicurezza energetica e un fattore di aumento delle emissioni di CO2.

Secondo un rapporto dell’Agenzia Internazionale per l’Energia (AIE) dal titolo ‘Energia e Ia’, pur essendo già ad alto consumo energetico, i data center hanno raddoppiato la loro capacità di elaborazione con il recente sviluppo dell’intelligenza artificiale generativa, che richiede capacità di calcolo colossali per elaborare le informazioni accumulate in database giganteschi. Nel 2024, queste infrastrutture rappresentavano solo circa l’1,5% del consumo globale di elettricità (415 TWh), ma negli ultimi cinque anni questa percentuale è già aumentata del 12% all’anno. E non è ancora finita.

Secondo l’Aie, “si prevede che la domanda globale di elettricità dei data center raddoppierà entro il 2030, raggiungendo circa 945 terawattora (TWh), ovvero una cifra leggermente superiore all’attuale consumo totale di elettricità del Giappone”. Entro questa data, i data center consumeranno poco meno del 3% dell’elettricità mondiale. A livello locale, “un centro elaborazione dati da 100 megawatt può consumare la stessa quantità di elettricità di 100.000 famiglie” all’anno, ma domani “i centri più grandi in costruzione oggi consumeranno 20 volte di più“, l’equivalente del consumo di 2 milioni di famiglie.

In un rapporto di 302 pagine, il primo dedicato all’intelligenza artificiale, l’agenzia per l’energia esamina “uno dei problemi energetici più urgenti e meno compresi oggi”. “L’intelligenza artificiale potrebbe trasformare il settore energetico nel prossimo decennio, incrementando la domanda di elettricità dai data center di tutto il mondo e offrendo al contempo significative opportunità di ridurre i costi, migliorare la competitività e tagliare le emissioni”, ha affermato l’Aie. I data center sono distribuiti in modo non uniforme nel mondo e concentrati in poche regioni all’interno di un Paese, spesso in prossimità delle città, il che solleva sfide in termini di fornitura e dimensionamento della rete elettrica. Questo aumento sarà “particolarmente” marcato in alcuni Paesi, come gli Stati Uniti, dove “i data center sono sulla buona strada per rappresentare quasi la metà” della domanda aggiuntiva di elettricità, sottolinea il direttore esecutivo dell’Agenzia Fatih Birol.

Insieme, Stati Uniti, Europa e Cina rappresentano oggi circa l’85% del consumo dei data center. La prima sfida è quindi quella di trovare elettricità a prezzi accessibili e in abbondanza. Nel tentativo di prendere le distanze dalla Cina nel campo dell’intelligenza artificiale (IA), il presidente degli Stati Uniti Donald Trump ha lanciato la creazione di un “Consiglio nazionale per il dominio energetico” con il compito di incrementare la produzione di energia elettrica. Secondo l’AIE, “per soddisfare le crescenti esigenze verrà utilizzata un’ampia gamma di fonti energetiche“, tra cui il carbone, che attualmente soddisfa il 30% del fabbisogno dei data center. “Tuttavia, si prevede che le energie rinnovabili e il gas naturale assumeranno un ruolo guida, grazie alla loro competitività in termini di costi e alla loro disponibilità nei mercati chiave“, si legge nel rapporto.

La corsa ai data center porterà inevitabilmente a un aumento delle emissioni legate al consumo di energia elettrica, dagli attuali 180 milioni di tonnellate di CO2 a 300 milioni di tonnellate entro il 2035, una quota minima però rispetto alla portata delle emissioni globali stimate nel 2024 (41,6 miliardi di tonnellate di CO2), avverte l’IEA. “Sebbene queste emissioni restino al di sotto dell’1,5% delle emissioni totali del settore energetico in questo periodo, i data center sono tra le fonti di emissioni in più rapida crescita“, aggiunge. Tuttavia, secondo l’Aie, queste emissioni aggiuntive potrebbero essere compensate o addirittura superate da potenziali risparmi di emissioni nel settore energetico e in altri settori, grazie ai guadagni di efficienza e alle innovazioni guidate dall’intelligenza artificiale. “I timori che l’intelligenza artificiale acceleri il cambiamento climatico sembrano esagerati, così come le aspettative che l’intelligenza artificiale da sola possa risolvere il problema“, conclude Aie. Con cautela, l’agenzia ritiene che “l’adozione dell’intelligenza artificiale non sia garantita e potrebbe essere compensata da effetti di rimbalzo e da un aumento del consumo di combustibili fossili“. In altre parole, l’intelligenza artificiale non è “una soluzione miracolosa” nella transizione energetica e resta necessaria una “politica proattiva”.

L’intelligenza artificiale farà triplicare il consumo di energia dei data center

Secondo un nuovo rapporto della società di venture capital Accel, i giganti tecnologici statunitensi hanno aggiunto 2,4 trilioni di dollari alle loro capitalizzazioni di mercato in un anno grazie anche al boom dell’intelligenza artificiale generativa. Accel, nel suo rapporto annuale Euroscape , ha indicato i valori dei prezzi delle azioni di grandi aziende tecnologiche come Apple, Microsoft, Alphabet, Amazone Nvidiaè aumentato in media del 36% anno su anno. Proprio Nvidia è entrata per la prima volta nel club dei trilionari, con il colosso statunitense dei chip che ora vale oltre mille miliardi di dollari.

I chip ad alte prestazioni di Nvidia alimentano molti modelli avanzati di intelligenza artificiale generativa, che producono nuovi contenuti da enormi volumi di dati di addestramento. Tutti questi movimenti di dati potrebbero però far lievitare di molto e in fretta il consumo globale di elettricità, che ora secondo l’Agenzia internazionale per l’energia, vale tra l’1 e l’1,5% considerando i data center. E David Groarke, amministratore delegato del consulente Indigo Advisory Group, in una recente intervista a S&P, ha rivelato: “In termini di numeri macro, entro il 2030 l’intelligenza artificiale potrebbe rappresentare dal 3% al 4% della domanda globale di energia. Google ha affermato che in questo momento l’intelligenza artificiale rappresenta dal 10% al 15% del loro consumo energetico, ovvero 2,3 TWh all’anno”.

Un’analisi pubblicata recentemente su Joule è una delle prime a quantificare la domanda che si sta rapidamente materializzando. Il proseguimento delle attuali tendenze in termini di capacità e adozione dell’intelligenza artificiale porterà Nvidia a spedire 1,5 milioni di unità server di intelligenza artificiale (Ai) all’anno entro il 2027. Questi 1,5 milioni di server, funzionanti a piena capacità, consumerebbero almeno 85,4 terawattora di elettricità all’anno: più di quello che molti piccoli paesi consumano in un anno, secondo la nuova valutazione.

L’analisi è stata condotta da Alex de Vries, data scientist presso la banca centrale dei Paesi Bassi e Ph.D. candidato alla Vrije University Amsterdam, dove studia i costi energetici delle tecnologie emergenti. In precedenza de Vries era diventato famoso per aver lanciato l’allarme sugli enormi costi energetici del mining e delle transazioni di criptovalute. Ora ha rivolto la sua attenzione all’ultima moda tecnologica. De Vries ha stimato che l’utilizzo dell’intelligenza artificiale generativa come ChatGPT in ogni ricerca su Google richiederebbe più di 500.000 server A100 HGX di Nvidia, per un totale di 4,1 milioni di elaborazioni unità grafiche o GPU. Con una richiesta di potenza di 6,5 kW per server, ciò comporterebbe un consumo giornaliero di elettricità di 80 GWh e un consumo annuale di 29,2 Twh. Ma un’adozione così diffusa con gli attuali hardware e software è improbabile a causa dei vincoli economici e della catena di fornitura dei server, ha affermato de Vries nel commento. Quel volume di server Nvidia attualmente non esiste e il costo per produrne un numero simile potrebbe arrivare fino a 100 miliardi di dollari. “In sintesi, mentre la rapida adozione della tecnologia AI potrebbe potenzialmente aumentare drasticamente il consumo energetico di aziende come Google, ci sono vari fattori legati alle risorse che potrebbero impedire il verificarsi di scenari peggiori“, ha sottolineato De Vries a S&P.

Dal 2023 al 2030, prevediamo un aumento dell’80% circa nella domanda di energia dei data center statunitensi, passando da circa 19 GW a circa 35 GW“, ha affermato Stephen Oliver, vicepresidente del marketing aziendale e delle relazioni con gli investitori di Navitas Semiconductor. La domanda di energia iniziale per l’addestramento dell’intelligenza artificiale è elevata ed è più concentrata rispetto alle applicazioni tradizionali dei data center. “Un tipico rack (la struttura meccanica di sostegno su cui sono poi montate le parti hardware vere e proprie, ndr) che consuma da 30 kW a 40 kW, con processori AI, come Nvidia Grace Hopper H100, è 2-3 volte la potenza nello stesso rack, quindi abbiamo bisogno di una nuova tecnologia nei convertitori di potenza“, ha continuato Oliver intervistato da S&P. “Lo vediamo spuntare in tutto il mondo e mentre nomi familiari come Amazon Web Services, Microsoft e Google gestiscono i data center stessi, l’hardware è progettato e costruito da aziende con sede a Taiwan come Delta, Lite On e Chicony“.

Nel dettaglio per David Groarke, amministratore delegato del consulente Indigo Advisory Group, la fascia di applicazioni che consuma davvero molta energia è quella relativa all’apprendimento delle lingue, che necessita di più memoria e spazio di archiviazione. Queste sono cose come le reti neurali che necessitano di migliaia di GPU. Constance Crozier, assistente professore presso la H. Milton Stewart School of Industrial and Systems Engineering della Georgia Tech, ha affermato che l’addestramento di qualcosa come ChatGPT utilizza circa 1 miliardo di volte la potenza necessaria per eseguirlo, ma per usi finali così popolari, la potenza aggregata consumata dall’esecuzione può diventare significativo o addirittura più grande.