Schneider Electric ha pubblicato il white paper 133 che approfondisce il tema “Navigating Liquid Cooling Architectures for Data Centers with AI Workloads”. In particolare il documento si occupa delle tecnologie di raffreddamento a liquido e della loro applicazione nei data center che gestiscono carichi di lavoro AI ad alta densità. La domanda di AI sta crescendo a un ritmo esponenziale.
Le conseguenze
Questo comporta un aumento del calore generato nei data center e, a lungo andare, la necessità di utilizzare il raffreddamento a liquido per mantenere prestazioni, sostenibilità e affidabilità ottimali. Il nuovo white paper nasce per aiutare gli operatori dei data center e i responsabili IT a orientarsi nel complesso tema del liquid cooling. E lo fa offrendo risposte chiare a domande cruciali sulla progettazione, l’implementazione e sul funzionamento dei sistemi.
Conoscere le architetture di raffreddamento a liquido
Gli autori del documento – Paul Lin, Robert Bunger e Victor Avelar – identificano due categorie principali di raffreddamento a liquido per i server AI: il raffreddamento diretto su chip e quello a immersione. Descrivono i componenti e le funzioni di un’unità di distribuzione del liquido di raffreddamento (CDU), essenziale per la gestione di temperatura, flusso, pressione e scambio di calore all’interno del sistema di raffreddamento.
Conoscere per migliorare: Liquid cooling e data center
Robert Bunger, Innovation Product Owner, Cto Office, Data Center Segment, Schneider Electric
I carichi di lavoro dell’intelligenza artificiale presentano sfide di raffreddamento uniche che il solo raffreddamento ad aria non è in grado di affrontare. Il nostro white paper mira a “demistificare” le architetture di raffreddamento a liquido. Fornendo agli operatori dei data center le conoscenze necessarie per prendere decisioni informate quando ne pianificano l’implementazione. Il nostro obiettivo è fornire ai professionisti dei data center spunti pratici per ottimizzare i loro sistemi di raffreddamento. Comprendendo i compromessi e i vantaggi di ciascuna architettura, gli operatori possono migliorare le prestazioni e l’efficienza dei loro data center.
I risultati del white paper
Il white paper descrive tre elementi chiave delle architetture di raffreddamento a liquido:
- recupero di calore all’interno del server. Utilizzo di un mezzo liquido (ad es. olio dielettrico, acqua) per assorbire il calore dai componenti IT.
- Tipo di CDU. Selezione della CDU appropriata in base ai metodi di scambio termico (liquido-aria, liquido-liquido) e ai fattori di forma (montaggio su rack, montaggio a pavimento).
- Metodo di smaltimento del calore. Determinazione del modo in cui trasferire efficacemente il calore all’esterno, sia attraverso i sistemi esistenti della struttura, sia attraverso soluzioni dedicate.
Scegliere la giusta architettura
Il documento descrive in dettaglio sei architetture di raffreddamento a liquido, che combinano diversi tipi di CDU e metodi di smaltimento del calore. Inoltre fornisce indicazioni sulla scelta dell’opzione migliore in base a fattori. Tra questi: l’infrastruttura esistente, le dimensioni dell’implementazione, la velocità e l’efficienza energetica. Con la crescente domanda di potenza di elaborazione dell’intelligenza artificiale e il corrispondente aumento dei carichi termici, il raffreddamento a liquido sta diventando un componente critico della progettazione dei data center. Il white paper affronta anche le tendenze del settore, come la necessità di una maggiore efficienza energetica, la conformità alle normative ambientali e la sostenibilità.
Liquid cooling e data center: le conclusioni del white paper 133
Robert Bunger
Poiché l’intelligenza artificiale continua a stimolare la necessità di soluzioni di raffreddamento avanzate, il nostro white paper fornisce una risorsa preziosa per orientarsi in questi cambiamenti. Siamo impegnati ad aiutare i nostri clienti a raggiungere i loro obiettivi di alte prestazioni, migliorando al contempo la sostenibilità e l’affidabilità.
I reference design
Questo white paper è particolarmente tempestivo e rilevante alla luce della recente collaborazione di Schneider Electric con NVIDIA per ottimizzare l’infrastruttura dei data center per le applicazioni di intelligenza artificiale. Frutto di questa partnership è la creazione dei primi reference design per la progettazione di data center AI disponibile per il pubblico. Si tratta del frutto dell’integrazione tra le tecnologie AI avanzate di NVIDIA e l’esperienza di Schneider Electric nell’infrastruttura di data center. I reference design stabiliscono nuovi standard per l’implementazione e il funzionamento dell’intelligenza artificiale, offrendo agli operatori di data center soluzioni innovative per gestire in modo efficiente i carichi di lavoro AI ad alta densità.