ESG SMARTDATA

AWS, il cloud migliora l’efficienza e riduce l’impronta carbonica dell’AI



Indirizzo copiato

Un recente studio commissionato da Amazon Web Services (AWS) e condotto da Accenture dimostra come spostare i carichi di lavoro IT dalle infrastrutture on-premise ai data center AWS distribuiti globalmente sia un metodo efficace per migliorare l’efficienza energetica e ridurre l’impronta di carbonio

Pubblicato il 27 giu 2024



thumbnail_image001

Con l’Intelligenza artificiale, il modo in cui utilizziamo la tecnologia per affrontare alcune delle sfide globali più complesse, dalla sanità al cambiamento climatico, sta cambiando. Ma con l’aumento dell’impiego dell’AI, è essenziale ridurre anche la sua impronta ambientale. Da un recente studio commissionato da Amazon Web Services (AWS) e condotto da Accenture emerge come spostare i carichi di lavoro IT dalle infrastrutture on-premise ai data center AWS distribuiti globalmente costituisca un metodo efficace per raggiungere tale obiettivo.

Guardando ai dati, la ricerca “How Moving onto The AWS Cloud Reduces Carbon Emissions stima che l’infrastruttura di AWS possa garantire fino a 4,1 volte in più di efficienza rispetto a quella on-premise, dove hardware e software sono mantenuti all’interno degli spazi fisici delle aziende, e la gestione di questo tipo di infrastruttura rappresenta l’85% della spesa IT globale delle aziende.

I benefici del trasferimento dei carichi di lavoro IT al Cloud AWS

Sono ormai diversi anni che i clienti di AWS stanno sperimentando i vantaggi, in termini di efficienza, della migrazione e dello sviluppo di soluzioni sul cloud AWS. Un esempio è quello di Illumina, azienda globale di genomica e salute umana, che ha ridotto le emissioni di carbonio dell’89%. Una operazione e una scelta che è destinata a diventare determinante man mano che l’uso dell’AI diventa sempre più pervasivo.

Infatti, con la crescente complessità e intensità dei dati dei carichi di lavoro – con cui si intendono raccolte di risorse e codice utile a svolgere compiti come gestire un sito web o amministrare database di inventario – di intelligenza artificiale, sono necessari nuovi sistemi in grado di eseguire milioni di calcoli ogni secondo oltre che nuove infrastrutture di memoria, storage e networking. Tutto ciò richiede energia e incide direttamente sull’impronta di carbonio.

Mentre i data center on-premise faticano a tenere il passo a causa delle loro limitazioni intrinseche in termini di scalabilità ed efficienza energetica, AWS continua a innovare per rendere il cloud il modo più efficiente per gestire l’infrastruttura e le attività dei propri clienti.

“L’approccio olistico di AWS all’efficienza contribuisce a minimizzare sia il consumo energetico che idrico nelle operazioni dei nostri data center, permettendoci di servire meglio i nostri clienti,” ha dichiarato Chris Walker, Director of Sustainability di AWS. “Lavoriamo costantemente per aumentare l’efficienza energetica delle nostre strutture, ottimizzando il design dei data center, investendo in chip progettati ad-hoc e innovando con nuove tecnologie di raffreddamento. Mentre AWS si impegna a raggiungere l’obiettivo di emissioni nette zero di carbonio di Amazon entro il 2040, come parte del Climate Pledge, continueremo a innovare e implementare nuove soluzioni per aumentare l’efficienza energetica in tutte le nostre strutture, con l’obiettivo di costruire un futuro migliore per il nostro pianeta.”

Metodologie per misurare l’efficienza energetica e ridurre le emissioni di carbonio

Simulando e analizzando le differenze tra infrastrutture on-premises e ambienti AWS, la ricerca ha quantificato l’efficienza energetica e le opportunità di riduzione delle emissioni di carbonio della migrazione dei carichi di lavoro.

Accenture si è servita dello standard International Organization for Standardization (ISO) Software Carbon Intensity (SCI) per analizzare la carbon footprint di carichi di lavoro rappresentativi con alta intensità di storage e di calcolo, oltre a considerare l’effetto dell’energia priva di carbonio sia per on-premises che per AWS.

Dapprima lo studio ha esaminato le emissioni di carbonio operative e incorporate (relative all’hardware IT) che possono essere evitate grazie al trasferimento dei carichi di lavoro dall’infrastruttura on-premise ad AWS. Un processo denominato “Lift-And-Shift“.

Dopodiché ha valutato l’ulteriore riduzione delle emissioni di carbonio ottenibile ottimizzando i medesimi carichi di lavoro sull’hardware specializzato di AWS, progettato appositamente per eseguire modelli di intelligenza artificiale. Queste valutazioni sono state condotte in quattro diverse aree geografiche: Stati Uniti e Canada, Unione Europea, Asia Pacifico e Brasile.

L’ottimizzazione dei carichi di lavoro su AWS riduce l’impronta di carbonio dell’AI fino al 99%

Lo studio ha rivelato che i carichi di lavoro con alta intensità di storage possono essere fino a 2,5 volte più efficienti su AWS rispetto alle soluzioni on-premises, e ottimizzandoli sull’hardware di AWS, le emissioni di carbonio associate possono essere ridotte fino al 93%.

Per i carichi di lavoro ad alta intensità di calcolo, le potenziali riduzioni delle emissioni di carbonio derivanti dall’esecuzione di questi carichi su AWS rispetto alle soluzioni on-premises sono state valutate attraverso l’analisi delle emissioni operative e incorporate di un carico di lavoro rappresentativo fornito da AWS. Accenture ha scoperto che, ottimizzando questi carichi di lavoro su AWS, le organizzazioni possono ridurre l’impronta di carbonio associata fino al 99% in diverse regioni geografiche.

“Questa ricerca dimostra che l’attenzione di AWS all’efficienza dell’hardware e del raffreddamento, all’energia priva di emissioni di anidride carbonica, ai processori progettati su misura e allo storage ottimizzato, può aiutare le organizzazioni a ridurre l’impronta di carbonio dei carichi di lavoro di intelligenza artificiale e machine learning,” ha affermato Sanjay Podder, Global Lead for Technology Sustainability Innovation di Accenture. “Con la crescente domanda di soluzioni di intelligenza artificiale, utilizzare tecnologie sostenibili può svolgere un ruolo cruciale nel permettere alle aziende di raggiungere gli obiettivi ambientali mentre promuovono l’innovazione.”

Innovazione nel Cloud per ridurre l’impronta di carbonio delle infrastrutture IT

AWS è costantemente impegnata nell’innovazione per rendere il cloud il metodo più efficiente e sostenibile per gestire le attività dei propri clienti.

Attraverso un’ingegneria avanzata che spazia dalla distribuzione elettrica alle tecniche di raffreddamento, AWS ha sviluppato una infrastruttura del data center in grado di operare al massimo dell’efficienza energetica. L’ottimizzazione dell’uso delle risorse permette di minimizzare gli sprechi, migliorando continuamente l’efficienza complessiva. Ad esempio, tecniche innovative di raffreddamento evaporativo hanno ridotto del 20% l’energia utilizzata per il mantenimento delle attrezzature, contrastando il sottoutilizzo delle risorse tipico dei data center on-premise.

Dopo l’alimentazione dei server, il raffreddamento rappresenta una delle principali fonti di consumo energetico nei data center AWS. Per aumentare l’efficienza, AWS impiega tecniche di raffreddamento diversificate, come il raffreddamento ad aria libera, e utilizza dati in tempo reale per adattarsi alle condizioni climatiche. Implementare queste strategie su scala ridotta è più complesso per i data center on-premises. Il nuovo design dei data center AWS integra soluzioni con capacità di raffreddamento a liquido per i chipset AI più potenti, come gli NVIDIA Grace Blackwell Superchips, massimizzando efficienza e prestazioni.

In linea con l’obiettivo di Amazon di raggiungere emissioni nette zero di carbonio entro il 2040, AWS sta rapidamente trasformando la sua infrastruttura globale per alimentarsi con il 100% di energia rinnovabile. Amazon ha lanciato oltre 500 progetti a livello globale ed è stata riconosciuta come il maggiore acquirente aziendale di energia rinnovabile al mondo negli ultimi quattro anni. Dal 2022, l’elettricità consumata in 19 Regioni AWS proviene al 100% da fonti rinnovabili.

Chip su misura per l’AI, design eco-sostenibile e strategie innovative per la gestione dei dati

Per gestire carichi di lavoro AI complessi, come quelli richiesti dai Large Language Models (LLM), AWS offre una gamma di hardware ottimizzato. Processori progettati su misura, come i chip AWS Trainium e AWS Inferentia, garantiscono prestazioni superiori rispetto alle istanze di calcolo comparabili e consentono ad AWS di eseguire modelli AI in modo efficiente su larga scala, riducendo l’impronta di carbonio e migliorando le prestazioni per watt di energia consumata.

Sebbene lo studio non abbia considerato le emissioni incorporate delle infrastrutture non IT, AWS si impegna a ottimizzare il design dei propri data center, rack server e infrastrutture di supporto. Dal 2023, ha risparmiato oltre 22.000 tonnellate di emissioni di anidride carbonica utilizzando materiali alternativi all’acciaio e cemento, a basso contenuto di carbonio, nella costruzione di 43 nuove strutture. E anche lungo la catena di fornitura spinge per aumentare l’uso di materiali riciclati e ridurre le emissioni di carbonio generate dai processi di produzione.

AWS fornisce strumenti e linee guida per modernizzare le strategie di gestione dei dati dei clienti, separando i dataset attivi da quelli meno utilizzati tramite servizi di storage completamente gestiti. Inoltre, aiuta i clienti a ottimizzare i processi di replica dei dati, riducendo le dimensioni e i requisiti di throughput, portando a un minore consumo energetico e a una riduzione delle emissioni di carbonio.

Articoli correlati

Articolo 1 di 5