Data center e water management: per quali ragioni si devono considerare i limiti dei sistemi ad aria
L’intelligenza artificiale sta trasformando radicalmente il mondo dell’IT e, con esso, sta rendendo sempre più urgente affrontare il grande tema dell’impatto ambientale dei data center, ovvero delle infrastrutture strategiche che devono garantire prestazioni elevate, continuità operativa e, appunto, sostenibilità. In questo scenario, il raffreddamento rappresenta oggi una delle sfide più critiche.
Per decenni l’aria è stata la risorsa principale per mantenere i server a temperature accettabili. Ma con l’aumento esponenziale della densità di calcolo e l’adozione massiva di GPU per i modelli di AI, questo approccio ha raggiunto un limite che impone la ricerca di soluzioni alternative. I chip sono passati da 120 a oltre 600 watt, mentre un rack può arrivare a sfiorare i 70 kilowatt.
“L’aria non basta più,” sottolinea Alessandro de Bartolo, Infrastructure Solutions Group, Country Leader, Lenovo Italia “I sistemi tradizionali stanno raggiungendo il loro limite fisico: oltre una certa soglia la capacità termica specifica dell’aria non è più in grado di dissipare il calore in modo efficace.”
Data center e water management: perché l’acqua è la soluzione ideale
Il raffreddamento a liquido rappresenta un vero cambio di paradigma. L’acqua ha una capacità di trasferire calore oltre 3.000 volte superiore all’aria, rendendola il fluido ideale per gestire le nuove esigenze dei data center.
Per rendere l’idea: se camminare fosse 3.000 volte più efficiente, si potrebbe andare da Londra a Roma nel tempo necessario per preparare un caffè. Questa analogia rende chiaro quanto l’acqua possa rivoluzionare l’efficienza termica.
Nei data center, dove fino al 50% dell’energia complessiva è assorbita dai sistemi di raffreddamento, la transizione al liquido può abbattere drasticamente i consumi. Non si tratta solo di migliorare le performance: l’acqua diventa la leva principale per rendere il settore più sostenibile e competitivo.
Tecnologie di water management per data center sostenibili
Le nuove tecnologie di water management applicate ai data center permettono di massimizzare l’efficienza e ridurre gli sprechi. Il direct-to-node cooling, ad esempio, consente di rimuovere almeno il 98% del calore generato dai server, con la possibilità di riutilizzarlo per il riscaldamento di edifici o altre infrastrutture, favorendo l’economia circolare.
Inoltre, i moderni sistemi non sprecano acqua. Funzionano in circuito chiuso e adottano tecnologie di raffreddamento ad acqua calda, che non richiedono scarichi continui né raffreddamenti esterni. Questo significa zero sprechi e nessuna pressione sulle risorse idriche locali.
“Non è soltanto una soluzione tecnica,” osserva de Bartolo “È una strategia per garantire sostenibilità reale, sicurezza operativa e compatibilità con gli obiettivi ESG.”
Come integrare il raffreddamento a liquido nei data center esistenti
Un aspetto fondamentale è la scalabilità. Il raffreddamento a liquido non è più un’esclusiva dei grandi hyperscaler come Amazon, Google o Microsoft. Oggi anche università, centri di ricerca e data center Tier 2 e Tier 3 stanno adottando soluzioni liquide per restare competitivi.
E non serve stravolgere le infrastrutture esistenti: le nuove soluzioni sono progettate per integrarsi con i sistemi ad aria già in uso, anche in configurazioni ibride aria/acqua. Questo permette un’adozione graduale, riducendo i rischi e ottimizzando i costi di transizione.
Data center, crescita dei consumi e ruolo strategico del water management
Secondo il think tank Ember, il consumo energetico dei data center in Europa è destinato a crescere del 150% nei prossimi dieci anni. Questo dato evidenzia quanto sia urgente adottare modelli di raffreddamento più efficienti.
In questo scenario, il water management non è un semplice dettaglio operativo, ma un pilastro strategico: consente di migliorare l’indicatore di efficienza (PUE), ridurre i costi operativi, garantire continuità di servizio e rispettare gli obiettivi ambientali fissati dalle normative europee e internazionali.
Il futuro dei data center è liquido
Il raffreddamento a liquido può sembrare una sfida, ma oggi è una scelta inevitabile. “I CIO e i leader IT che vogliono guidare l’innovazione e prepararsi alle richieste future dell’intelligenza artificiale devono considerare seriamente questa tecnologia,” afferma de Bartolo.
Adottare il raffreddamento a liquido significa ridurre i costi operativi, aumentare le prestazioni e costruire un’infrastruttura più sostenibile e scalabile. Significa soprattutto rispondere concretamente alle esigenze di un futuro sempre più guidato dall’intelligenza artificiale.
“L’AI ha bisogno di potenza, efficienza e scalabilità. E ha bisogno di acqua.” conclude de Bartolo. Il futuro dei data center è già scritto: non sarà più raffreddato ad aria, ma governato da un water management intelligente e orientato alla sostenibilità.