L’interesse crescente per l’Intelligenza Artificiale Generativa (GenAI) ha stimolato un incremento nella richiesta di sistemi di elaborazione sempre più performanti. Questo ha portato, inevitabilmente, a un aumento del consumo energetico e dei costi correlati all’addestramento e all’esecuzione dei modelli AI, una tendenza che non accenna a rallentare. Cullen Bash, Vicepresidente di ricerca e sviluppo, Hewlett Packard Labs pone l’accento sulla dicotomia tra progresso tecnologico e sostenibilità ambientale. Da un lato, abbiamo l’enorme potenziale dell’AI nell’aumentare la creatività, scoprire nuove applicazioni e migliorare la produttività in tutti i settori; dall’altro lato, si pone la necessità di affrontare e mitigare l’impatto ambientale che l’adozione e l’implementazione su larga scala di tali tecnologie possono comportare.
AI: con i modelli più grandi si incorre in un maggiore consumo energetico
Dall’avvento dell’intelligenza artificiale, la dimensione dei modelli di AI ha assistito a una crescita esponenziale. Nel 1950, il numero massimo di parametri in un modello di AI era 40. Nel 2010, all’alba dell’era del deep learning, i modelli avevano già registrato un aumento di sei ordini di grandezza, toccando i 100.000 parametri. Da quel momento, le dimensioni dei modelli sono cresciute di altri cinque ordini di grandezza. In sostanza, modelli più ampi necessitano di sistemi più potenti o di tempi di calcolo più estesi, e in entrambi i casi si verifica un incremento del consumo energetico.
Oggi, ChatGPT consuma oltre 500.000 kilowattora di elettricità al giorno, mentre, a titolo comparativo, il consumo medio giornaliero di una famiglia americana è pari a 29 kilowattora. L’Uptime Institute stima che entro il 2025 l’intelligenza artificiale costituirà circa il 10% della potenza globale dei data center, con un aumento di cinque volte rispetto a oggi. Inoltre, l’Agenzia Internazionale dell’Energia (IEA) prevede che, tra il 2022 e il 2026, il fabbisogno energetico dei data center potrebbe raddoppiare, in gran parte a causa del ricorso sempre maggiore all’intelligenza artificiale.
Le imprese spingono sul carbon neutrality entro il 2050
Parallelamente, come tiene a sottolineare Cullen Bash, molte aziende stanno puntando sulla sostenibilità, impegnandosi a raggiungere la neutralità carbonica entro il 2050, in linea con l’obiettivo net zero delle Nazioni Unite. Per conseguire questo traguardo e mitigare gli effetti più gravi del cambiamento climatico, le organizzazioni devono ridurre il consumo energetico, incrementare l’uso di fonti di energia rinnovabile e carbon-free, sviluppare metodi per sequestrare il carbonio o catturarlo prima che si disperda nell’atmosfera (spesso indicato anche con l’acronimo CCS, derivato dal termine inglese Carbon Capture and Storage – o Sequestration), nonché ottimizzare il riutilizzo delle risorse e l’eliminazione degli sprechi. In sintesi, per realizzare un’AI sostenibile è necessario un approccio olistico.
4 strategie per un’AI più efficiente dal punto di vista energetico
I ricercatori stanno esplorando strategie per ottimizzare l’impiego delle risorse, indipendentemente dal fatto che i carichi di lavoro AI siano eseguiti su cloud, supercomputer o data center on-premises. Diverse tipologie di risorse possono eseguire specifici carichi di lavoro in modo più efficiente rispetto ad altre. Pertanto, prosegue il Vicepresidente di ricerca e sviluppo Hewlett Packard Labs, per eseguire ogni carico di lavoro nel modo più efficace, è essenziale capire come suddividere i workflow. Se alcuni carichi di lavoro possono essere più adatti al cloud, altri invece risultano più efficienti su un supercomputer o in un data center locale.
Acceleratori analogici
Per molti anni, i circuiti digitali hanno rappresentato la scelta preferita grazie alla loro velocità, potenza e capacità di elaborare grandi quantità di dati in tempi brevissimi. Tuttavia, con la crescente diffusione dell’intelligenza artificiale, è emerso un limite significativo di questi circuiti: l’enorme consumo energetico. In questo scenario, la tecnologia analogica sta tornando alla ribalta. I circuiti analogici, costituiti da resistenze, condensatori e induttori, operano nel dominio analogico e offrono un’alternativa interessante per ridurre il consumo energetico.
Invece di fare affidamento su un sistema binario di zeri e uno, i circuiti analogici sfruttano una gamma continua di segnali. Utilizzando componenti come i memristori per l’archiviazione dei dati, si può ridurre il trasferimento di dati tra memoria e acceleratore, diminuendo quindi il consumo energetico complessivo. Gli acceleratori specializzati, progettati per compiti specifici, sono generalmente più efficienti rispetto a quelli generici, migliorando il rapporto tra prestazioni e consumo energetico a livello di chip.
Gemelli digitali
Un “gemello digitale” (o digital twin) è una rappresentazione virtuale di un sistema fisico, che può comprendere un’infrastruttura cloud, un supercomputer o un data center locale. Questo modello virtuale è costantemente aggiornato e serve a ottimizzare il funzionamento del sistema fisico in tempo reale.
I gemelli digitali vengono classificati in base al livello di interazione che hanno con il sistema reale. La forma più semplice di gemello digitale è una simulazione del sistema fisico, come un modello virtuale del sistema di raffreddamento di un data center, utile durante la fase di progettazione. Questo tipo di simulazione è stato impiegato nell’ingegneria per molti anni.
Se, per rimanere aggiornato, il modello digitale riceve dati dal sistema fisico – ad esempio rilevando il consumo energetico in un data center – può evolvere con esso e contribuire all’ottimizzazione operativa e alla gestione dell’efficienza energetica.
Carichi di lavoro geo-distribuiti
La disponibilità di energia e acqua varia notevolmente a livello locale. In collaborazione con la Colorado State University, HPE Labs ha sviluppato algoritmi di ottimizzazione capaci di esaminare le fluttuazioni nella produzione di carbonio, la disponibilità idrica e i costi energetici in diverse regioni geografiche.
Queste informazioni permettono di identificare la posizione più efficiente per eseguire specifici carichi di lavoro di intelligenza artificiale, adattando l’uso delle risorse alle condizioni locali. Questa strategia consente importanti risparmi nel consumo di energia e acqua, oltre a ridurre i costi operativi.
Riutilizzo del calore di scarto
Tutta l’energia elettrica che alimenta un data center viene trasformata in calore, che deve essere poi dissipato. I data center tradizionalmente usano il raffreddamento ad aria, un metodo meno efficiente e più costoso rispetto al sempre più diffuso raffreddamento a liquido diretto (DLC, Direct Liquid Cooling). Il DLC consiste nel pompare un liquido refrigerante direttamente nei server per assorbire il calore generato dai componenti hardware come processori, GPU e memorie, trasferendolo successivamente a un sistema di scambio termico esterno.
Questo metodo di raffreddamento è più efficiente dell’aria, poiché l’acqua possiede una capacità termica quattro volte superiore. Inoltre, il liquido è più facile da contenere e trasportare, riducendo le dispersioni di calore e migliorando il recupero del calore inutilizzato. La valorizzazione del calore di scarto è fondamentale perché consente il suo riutilizzo per altre applicazioni, come il riscaldamento di serre per ottimizzare la coltivazione di pomodori o il riscaldamento di edifici.