Il rapporto tra intelligenza artificiale e transizione energetica è ricchissimo di complessità e di opportunità. L’AI sta portando uno straordinario contributo nella gestione sempre più precisa della capacità produttiva, in particolare delle energie rinnovabili, in relazione a una corretta programmazione dei consumi, solo per fare un esempio. Nello stesso tempo l’AI è a sua volta resposnabile di importanti consumi energetici.
Per capire come cercare un nuovo equilibrio tra potenzialità e impegni legati all’AI riprendiamo alcune indicazioni e analisi che arrivano da Equinix, azienda attiva nel settore delle infrastrutture digitali, che permettono di capire come l’implementazione nei data center giusti può fare la differenza per soddisfare i requisiti di energia e raffreddamento dei crescenti workload di AI.
Tiffany Osias, Managing Director, xScale, e Christopher Wellise, VP, Sustainability di Equinix sottolineano innanzitutto che le aziende impegnate a capitalizzare l’AI, si trovano nella condizione di far fronte a importanti sfide infrastrutturali. Queste aziende hanno bisogno di archiviare e gestire grandi volumi di dati e di potenza di calcolo scalabile per poterli elaborare. A tutto questo si aggiunge la necessità di reti ad alte prestazioni per spostare i dati tra diverse sedi di elaborazione.
Dall’efficienza all’hardware lifecycle
La sfida è quella di abilitare l’AI rispettando nello stesso tempo gli obiettivi di sostenibilità e per questo Osias e Wellise segnalano almeno quattro punti di attenzione.
L’ottimizzazione dell’efficienza
I carichi di lavoro dell’AI su hardware efficienti e l’ottimizzazione dei data center per l’efficienza energetica sono elementi fondamentali per una intelligenza artificiale sostenibile, ma occorre sempre di più considerare l’impatto del ciclo di vita dell’hardware, la capacità di approvvigionamento di energia pulita e a basse emissioni di CO2, l’efficienza degli algoritmi e le pratiche generali di data management e la disponibilità di green skill.
I data center ad alte prestazioni, ad esempio nel formato della colocation, rappresentano un vantaggio che consente alle organizzazioni di sfruttare economie di scala. In più il data center deve considerare l’AI come strumento per consentire la sostenibilità delle sue stesse operazioni.
Abilitazione del consumo di risorse condivise
L’addestramento di modelli di intelligenza artificiale consuma indiscutibilmente molta energia, che viene però consumata una sola volta, e se si percorre la strada di condividere i modelli di intelligenza artificiale si può dividere l’onere energetico dell’addestramento.
La possibilità di disporre di un’intelligenza artificiale privata nella forma di una piattaforma neutrale che consente a tutti i partner di connettersi tra loro proteggendo i propri dati si può ridurre la quantità totale di capacità computazionale e di energia utilizzata dal data center per l’addestramento del modello da parte di tutti i partner.
Predisposizione ad alte intensità
A fronte di un contesto in cui le GPU offrono una maggiore efficienza di elaborazione, è necessario affrontare le sfide della gestione del calore. In questo senso occorre considerare soluzioni di raffreddamento avanzate come il raffreddamento a liquido, che sono essenziali per dissipare efficacemente il calore generato dall’hardware. Il data center dovrebbe inoltre garantire che l’energia utilizzata provenga, quando possibile, da fonti rinnovabili o a basse emissioni di carbonio.
La corretta gestione dell’hardware lifecycle
Se l’adozione diffusa dell’intelligenza artificiale porta a cicli di aggiornamento dell’hardware più rapidi, le aziende dovranno affrontare in modo proattivo il problema dei rifiuti elettronici RAEE. Ovvero, dovranno appoggiarsi a un fornitore che abbia integrato l’economia circolare nelle sue pratiche, dando nuova vita agli asset e ai materiali esistenti quando possibile attraverso una strategia responsabile di smaltimento.