La crescita dell’intelligenza artificiale negli ultimi anni è stata accompagnata da una corsa globale alla capacità di calcolo. Aziende di ogni settore hanno interpretato la sfida come un problema principalmente hardware, investendo massicciamente in schede grafiche e infrastrutture di elaborazione. Tuttavia, come ha spiegato Jason Hardy, Chief Technology Officer di Hitachi Vantara, nel podcast AI in Business di Emerj AI Research, ridurre la questione alla sola potenza computazionale significa trascurare un aspetto decisivo: la sostenibilità. L’espansione dei progetti di intelligenza artificiale richiede infatti di coniugare efficienza, prestazioni e responsabilità ambientale, rendendo inscindibile il binomio AI e sostenibilità.
Il peso energetico dell’intelligenza artificiale
Le infrastrutture necessarie per supportare l’AI hanno consumi elevatissimi. Hardy ha chiarito che «avendo alti requisiti di alimentazione, non si tratta della tecnologia più sostenibile». I sistemi basati su GPU e calcolo intensivo richiedono non solo alimentazione costante, ma anche soluzioni di raffreddamento avanzate, con conseguenti ricadute sui costi e sull’impronta ambientale.
Le aziende si trovano così a dover bilanciare le esigenze di potenza con l’impatto sui data center, che diventano veri e propri poli energivori. La consapevolezza di questo problema è cresciuta man mano che i progetti di AI hanno iniziato a entrare nelle fasi operative. Hardy ha osservato che, se inizialmente la spinta era quella di accumulare GPU senza un piano preciso, oggi la riflessione è più matura e tiene conto anche delle implicazioni ambientali: «man mano che la tecnologia matura, diventa anche più sostenibile. Possiamo fare molto di più con un ingombro molto più condensato».
AI e ESG: la sostenibilità come parametro strategico
Il tema energetico si collega inevitabilmente agli obiettivi ESG, sempre più centrali per imprese e investitori. Hardy ha ricordato che le aziende non possono limitarsi a considerare l’AI come uno strumento di produttività immediata, ma devono inserirla in una strategia che tenga conto dell’impatto ambientale e sociale.
La relazione tra AI e sostenibilità si manifesta su più piani: dal monitoraggio dei consumi dei data center alla scelta di modelli di governance dei dati che minimizzino duplicazioni e sprechi. Le metriche tradizionali di ROI, basate unicamente su tagli di costi o incremento dei ricavi, risultano incomplete se non includono anche i benefici e le ricadute ESG. Come ha spiegato Hardy, «bisogna sapere in modo metodico qual è il proprio impatto sull’ESG, sulla propria strategia ibrida, nel proprio data center».
Dal “GPU first” a un approccio olistico
La prima fase di adozione dell’AI è stata dominata dall’idea che bastasse acquistare schede grafiche per ottenere risultati immediati. Hardy ha descritto questo atteggiamento come una corsa poco ragionata: «quando abbiamo visto questa prima corsa, tutti compravano GPU, le accaparravano e poi pianificavano di usarle più avanti».
Il limite di questa visione è che ignora le interdipendenze tra hardware, dati ed energia. Non basta moltiplicare le GPU se i dataset non sono adeguati o se i sistemi sorgente non reggono i carichi. Allo stesso modo, un’infrastruttura non ottimizzata può generare costi energetici insostenibili, vanificando i potenziali benefici dell’AI. Hardy invita quindi a superare il mito del “GPU first” per adottare una prospettiva integrata, che consideri il ciclo completo: dalla provenienza dei dati al loro trattamento, fino al consumo energetico delle architetture di calcolo.
Roadmap sostenibili per scalare l’AI
Il tema della sostenibilità si riflette anche nel modo in cui le aziende pianificano l’adozione. Hardy ha sottolineato che «abbiamo superato la fase di sperimentazione. Ora c’è una richiesta di ROI». Ciò significa che le organizzazioni non possono più permettersi di avviare progetti senza valutare a monte l’impatto energetico e infrastrutturale.
Una roadmap sostenibile implica investimenti graduali, calibrati sulla reale disponibilità di risorse e sulla capacità di gestione dei dati. L’adozione del cloud ibrido, con l’uso combinato di risorse on-premises e servizi pubblici, diventa una leva importante per controllare i consumi e garantire flessibilità. Allo stesso tempo, i data center devono essere progettati per ridurre al minimo l’impronta ambientale, attraverso soluzioni di raffreddamento più efficienti e una migliore distribuzione dei carichi di lavoro.
Ecosistemi tecnologici tra performance e responsabilità
L’elemento forse più significativo emerso dall’intervista a Hardy è la necessità di vedere l’AI non come un prodotto da acquistare, ma come un ecosistema da costruire. Ogni progetto implica la definizione di infrastrutture fisiche, la cura dei dati e la formazione delle persone che dovranno gestirle. In questa visione, AI e sostenibilità non sono due percorsi paralleli, ma dimensioni intrecciate. Scalare l’AI senza tenere conto dei consumi e della governance ambientale rischia di compromettere la fattibilità stessa dei progetti. Al contrario, includere la sostenibilità tra i criteri guida consente di rendere l’AI una leva di crescita capace di durare nel tempo.