In occasione dell’AI Day, Hewlett Packard Enterprise ha presentato la prima architettura di sistemi di raffreddamento a liquido diretto con la tecnologia DLC (100% fanless). Si tratta di una soluzione senza raffreddamento ad aria per migliorare efficienza energetica e costi delle implementazioni AI su larga scala. Durante l’evento, l’azienda ha messo in mostra la propria esperienza e leadership nel settore dell’AI per imprese, istituzioni, service provider e sviluppatori di modelli di IA.
Più efficienza e meno costi
Malgrado i miglioramenti nell’efficienza degli acceleratori di nuova generazione, il consumo di energia continua ad aumentare con l’adozione dell’AI, rendendo superate le tecniche di raffreddamento tradizionali. Le organizzazioni che gestiscono grandi carichi di lavoro di intelligenza artificiale dovranno farlo in modo più efficiente. Il modo più efficace per raffreddare i sistemi AI di prossima generazione è il raffreddamento a liquido diretto, di cui HPE è pioniere. Questa tecnologia di raffreddamento determinante ha permesso ai sistemi HPE di dare vita a 7 dei 10 supercomputer in cima alla classifica Green500. La lista è dedicata ai supercomputer più efficienti al mondo dal punto di vista energetico.
Perseguire obiettivi di sostenibilità
La nuova ‘architettura di raffreddamento con liquido diretto 100% fanless di HPE, presentata in un suo impianto all’avanguardia, porta i vantaggi in termini di costi e di efficienza energetica a un numero più ampio di organizzazioni. Aziende che stanno costruendo progetti di AI generativa su larga scala.
Primo sistema di raffreddamento
Antonio Neri, Presidente e Ceo di HPE. “Man mano che le aziende abbracciano le possibilità create dall’AI generativa, devono anche perseguire obiettivi di sostenibilità, combattere l’aumento dei requisiti energetici e ridurre i costi operativi. La struttura che abbiamo presentato oggi utilizza esclusivamente il raffreddamento a liquido. Offrendo così maggiori vantaggi in termini di energia e di efficienza dei costi rispetto alle soluzioni alternative presenti sul mercato. Infatti, questa architettura di raffreddamento diretto a liquido consente di ridurre del 90% il consumo di energia da raffreddamento rispetto ai sistemi tradizionali raffreddati ad aria. L’esperienza di HPE nell’implementazione dei più grandi ambienti IT raffreddati a liquido al mondo e la nostra leadership di mercato che dura da decenni ci mettono in una posizione eccellente per continuare a cogliere la domanda di AI”.
Le basi della nuova soluzione
L’architettura del sistema si basa su quattro pilastri:
- un design di raffreddamento a 8 elementi. Questo include il raffreddamento con liquido per GPU, CPU, server blade completo, storage locale, network fabric, rack/cabinet, pod/cluster e unità di distribuzione del refrigerante (CDU).
- Progettazione di sistemi ad alta densità e ad alte prestazioni. Sono completi di test rigorosi e software di monitoraggio. Così come servizi in loco per supportare il successo dell’implementazione di questi sofisticati sistemi di calcolo e raffreddamento.
- Progettazione di un integrated network fabric per l’integrazione su larga scala di connessioni a basso costo e a bassa Potenza.
- Design di sistema aperto per offrire flessibilità di scelta negli acceleratori.
Primo sistema di raffreddamento, dimezzato anche il consumo di spazio
L’architettura di raffreddamento diretto a liquido 100% fanless offre vantaggi unici. Come una riduzione del 37% della potenza di raffreddamento richiesta per ogni server blade, rispetto al solo raffreddamento diretto a liquido ibrido. In questo modo si riducono i costi delle utility, la produzione di anidride carbonica e il rumore delle ventole dei data center. Inoltre, poiché i sistemi che utilizzano questa architettura possono supportare una maggiore densità di cabinet server, consumano la metà dello spazio.