L’intelligenza artificiale farà triplicare il consumo di energia dei data center

Secondo Google in questo momento l’AI rappresenta dal 10% al 15% del suo consumo energetico, ovvero 2,3 TWh all’anno

Secondo un nuovo rapporto della società di venture capital Accel, i giganti tecnologici statunitensi hanno aggiunto 2,4 trilioni di dollari alle loro capitalizzazioni di mercato in un anno grazie anche al boom dell’intelligenza artificiale generativa. Accel, nel suo rapporto annuale Euroscape , ha indicato i valori dei prezzi delle azioni di grandi aziende tecnologiche come Apple, Microsoft, Alphabet, Amazone Nvidiaè aumentato in media del 36% anno su anno. Proprio Nvidia è entrata per la prima volta nel club dei trilionari, con il colosso statunitense dei chip che ora vale oltre mille miliardi di dollari.

I chip ad alte prestazioni di Nvidia alimentano molti modelli avanzati di intelligenza artificiale generativa, che producono nuovi contenuti da enormi volumi di dati di addestramento. Tutti questi movimenti di dati potrebbero però far lievitare di molto e in fretta il consumo globale di elettricità, che ora secondo l’Agenzia internazionale per l’energia, vale tra l’1 e l’1,5% considerando i data center. E David Groarke, amministratore delegato del consulente Indigo Advisory Group, in una recente intervista a S&P, ha rivelato: “In termini di numeri macro, entro il 2030 l’intelligenza artificiale potrebbe rappresentare dal 3% al 4% della domanda globale di energia. Google ha affermato che in questo momento l’intelligenza artificiale rappresenta dal 10% al 15% del loro consumo energetico, ovvero 2,3 TWh all’anno”.

Un’analisi pubblicata recentemente su Joule è una delle prime a quantificare la domanda che si sta rapidamente materializzando. Il proseguimento delle attuali tendenze in termini di capacità e adozione dell’intelligenza artificiale porterà Nvidia a spedire 1,5 milioni di unità server di intelligenza artificiale (Ai) all’anno entro il 2027. Questi 1,5 milioni di server, funzionanti a piena capacità, consumerebbero almeno 85,4 terawattora di elettricità all’anno: più di quello che molti piccoli paesi consumano in un anno, secondo la nuova valutazione.

L’analisi è stata condotta da Alex de Vries, data scientist presso la banca centrale dei Paesi Bassi e Ph.D. candidato alla Vrije University Amsterdam, dove studia i costi energetici delle tecnologie emergenti. In precedenza de Vries era diventato famoso per aver lanciato l’allarme sugli enormi costi energetici del mining e delle transazioni di criptovalute. Ora ha rivolto la sua attenzione all’ultima moda tecnologica. De Vries ha stimato che l’utilizzo dell’intelligenza artificiale generativa come ChatGPT in ogni ricerca su Google richiederebbe più di 500.000 server A100 HGX di Nvidia, per un totale di 4,1 milioni di elaborazioni unità grafiche o GPU. Con una richiesta di potenza di 6,5 kW per server, ciò comporterebbe un consumo giornaliero di elettricità di 80 GWh e un consumo annuale di 29,2 Twh. Ma un’adozione così diffusa con gli attuali hardware e software è improbabile a causa dei vincoli economici e della catena di fornitura dei server, ha affermato de Vries nel commento. Quel volume di server Nvidia attualmente non esiste e il costo per produrne un numero simile potrebbe arrivare fino a 100 miliardi di dollari. “In sintesi, mentre la rapida adozione della tecnologia AI potrebbe potenzialmente aumentare drasticamente il consumo energetico di aziende come Google, ci sono vari fattori legati alle risorse che potrebbero impedire il verificarsi di scenari peggiori“, ha sottolineato De Vries a S&P.

Dal 2023 al 2030, prevediamo un aumento dell’80% circa nella domanda di energia dei data center statunitensi, passando da circa 19 GW a circa 35 GW“, ha affermato Stephen Oliver, vicepresidente del marketing aziendale e delle relazioni con gli investitori di Navitas Semiconductor. La domanda di energia iniziale per l’addestramento dell’intelligenza artificiale è elevata ed è più concentrata rispetto alle applicazioni tradizionali dei data center. “Un tipico rack (la struttura meccanica di sostegno su cui sono poi montate le parti hardware vere e proprie, ndr) che consuma da 30 kW a 40 kW, con processori AI, come Nvidia Grace Hopper H100, è 2-3 volte la potenza nello stesso rack, quindi abbiamo bisogno di una nuova tecnologia nei convertitori di potenza“, ha continuato Oliver intervistato da S&P. “Lo vediamo spuntare in tutto il mondo e mentre nomi familiari come Amazon Web Services, Microsoft e Google gestiscono i data center stessi, l’hardware è progettato e costruito da aziende con sede a Taiwan come Delta, Lite On e Chicony“.

Nel dettaglio per David Groarke, amministratore delegato del consulente Indigo Advisory Group, la fascia di applicazioni che consuma davvero molta energia è quella relativa all’apprendimento delle lingue, che necessita di più memoria e spazio di archiviazione. Queste sono cose come le reti neurali che necessitano di migliaia di GPU. Constance Crozier, assistente professore presso la H. Milton Stewart School of Industrial and Systems Engineering della Georgia Tech, ha affermato che l’addestramento di qualcosa come ChatGPT utilizza circa 1 miliardo di volte la potenza necessaria per eseguirlo, ma per usi finali così popolari, la potenza aggregata consumata dall’esecuzione può diventare significativo o addirittura più grande.