Oggi l’intelligenza artificiale ha conquistato senza dubbio uno spazio di riguardo come strumento per migliorare l’efficienza e ottimizzare le prestazioni di sistemi complessi, inclusi quelli di rete. Tuttavia, alla base dell’utilizzo dell’intelligenza artificiale si trova un paradosso: pur migliorando l’efficienza dei processi, incrementa significativamente il consumo energetico. Questo aspetto rappresenta una ulteriore sfida nel contesto degli obiettivi di sostenibilità ambientale, particolarmente in ottica ESG. Una problematica tutt’altro che scontata, che proveremo ad affrontare con il supporto di Andrea Ferrazzi, Chief Security & Innovation Officer di Maticmind.
Il paradosso fra AI e sostenibilità
Per Ferrazzi “AI e ESG sono attualmente due concetti antitetici, con particolare riferimento ai consumi energetici”. Un esempio in questo senso può essere rappresentato dal costo energetico degli attuali sistemi di intelligenza artificiale, in particolare quelli basati su Large Language Models (LLM).
“L’assorbimento energetico è un fattore da considerare in qualsiasi tipo di iniziativa tecnologica che fa uso dell’intelligenza artificiale. Per renderla sostenibile è necessario sfruttare tecnologie più efficienti per ottenere lo stesso risultato, ed estendere il suo impiego ai processi strategici per identificare l’ottimo in modo dinamico.” Spiega Ferrazzi.
Il problema, precisa Ferrazzi, non è l’AI in sé, ma l’enorme potenza di calcolo richiesta dai modelli avanzati, e oggi ampiamente diffusi come gli LLM. Secondo Ferrazzi, uno degli approcci più promettenti per affrontare questo paradosso è utilizzare tecnologie e sviluppare modelli meno esigenti dal punto di vista energetico, pur mantenendo prestazioni elevate per le specifiche esigenze del caso. Esistono analogie con il settore della cybersecurity: nel tempo, all’obiettivo del mantenimento dell’efficacia perseguendo il minor costo, si è aggiunto il concetto di efficienza, una sfida che oggi tocca anche l’intelligenza artificiale.
Un cambio di paradigma necessario
Per ridurre l’impronta energetica non basta ottimizzare i sistemi attuali: è necessario un completo cambio di paradigma. Ferrazzi fa riferimento a tecnologie emergenti come i computer quantistici, che a regime potrebbero aumentare la capacità computazionale riducendo l’assorbimento energetico. Tuttavia, le soluzioni più utilizzate oggi consentono solo ottimizzazioni limitate e richiedono un’evoluzione più radicale.
“Un esempio pratico è la gestione dei data center. Le attuali ridondanze e il continuo funzionamento dei server contribuiscono pesantemente ai consumi globali. Per essere tranchant, L’unico modo di ridurre radicalmente i consumi è spegnere i computer“. Maticmind sta esplorando logiche che consentono di ridurre non la quantità di apparati accesi ma di ottimizzare dinamicamente le configurazioni di ambienti complessi, come le grandi reti degli operatori, sfruttando così al massimo le risorse disponibili. Un principio simile a quello del tasto “eco” delle automobili “, dove ad una specifica riduzione delle performance corrisponde un miglioramento significativo dei consumi e, di conseguenza, della sostenibilità. Di fatto, è un tema assimilabile alla curva motore: si tratta di identificare il punto di equilibrio fra prestazioni e consumi. “Maticmind ha allo studio strumenti che calcolano le determinanti di consumo in ambienti complessi, che tipicamente incidono sulle CPU, per far adottare dinamicamente modifiche architetturali tramite automazioni. “Lo scopo finale è quello di dare la possibilità al cliente di definire il tradeoff fra prestazioni e consumi” spiega Ferrazzi.
AI e rete: una sinergia possibile
La rete, in quest’ottica di consumi, è un altro settore critico, dal momento che gli apparati sono attivi 24 ore su 24, ogni giorno. Per ridurre l’impronta energetica, bisogna ripensare le architetture. Logiche come l’intent based networking sviluppato da aziende come Cisco, permettono di adattare la rete ai bisogni in tempo reale. Ferrazzi immagina un futuro in cui, ad esempio, un terzo dei router potrebbe non essere coinvolto nei processi di gestione del traffico, senza compromettere il servizio agli utenti. Anche se questo scenario sembra ancora lontano, la strada verso una maggiore flessibilità, e la conseguente sostenibilità, è tracciata.
Un approccio interessante è quello delle reti mesh, dove i dispositivi possono essere gestiti in modo dinamico, garantendo che solo quelli strettamente necessari siano in funzione. Questa filosofia si estende anche all’Internet of Things (IoT), un settore in continua espansione in cui il numero di dispositivi connessi è esploso. La vera sfida è progettare reti che possano essere “spente” per porzioni, riducendo i consumi in modo significativo. “Possiamo pensare di mutuare gli stessi criteri di scala che usano i provider, riuscendo ad avere una architettura che serve il bisogno Just-In-Time: avere sempre tutto disponibile per tutti, a prescindere dalla richiesta, è un utilizzo subottimale delle risorse” conclude Ferrazzi.
Una nuova logica di progettazione
Il vero cambiamento deve partire dalla fase progettuale. Ferrazzi insiste sul fatto che le reti devono essere costruite con una logica di efficacia ed efficienza sin dall’inizio. “Il futuro delle infrastrutture di rete, così come dell’AI, risiede in architetture flessibili, capaci di adattarsi alle esigenze e di consentire ai clienti di decidere il livello prestazionale. Maticmind è in prima linea nel proporre queste soluzioni, offrendo architetture scalabili e ottimizzabili in base alle specifiche necessità dei clienti” spiega.
L’AI, in particolare, può essere utilizzata per rilevare, calcolare e comprendere le determinanti del consumo energetico. Attraverso l’impiego di logiche di machine learning, è possibile supportare le decisioni su come e quando ridurre i consumi, pur mantenendo standard elevati di performance. In questo svolge un ruolo insostituibile, perché permette di espandere la capacità di analisi e le sue prestazioni oltre i limiti offerti dagli strumenti tradizionali.
L’AI può supportare una gestione del network più sostenibile
Il futuro dell’intelligenza artificiale nella gestione delle reti passa per una maggiore consapevolezza dei consumi e per l’adozione di tecnologie, architetture e processi più efficienti. La sfida non è solo tecnica, ma anche culturale: si tratta di spostare il paradigma verso una logica di servizio just in time, dove la rete e l’infrastruttura sono attive solo quando necessario. La combinazione di AI e architetture flessibili rappresenta il passo più concreto verso un futuro sostenibile.