Le architetture AMD per l’intelligenza artificiale nei data center

Per gestire la domanda in continua evoluzione, le CPU AMD EPYC sono progettate per accelerare i carichi di lavoro tradizionali e quelli di intelligenza artificiale.

data center

AMD offre un’interessante e approfondita analisi sull’impiego e sui vantaggi di CPU e GPU all’interno dei data center nell’epoca dell’esplosione dei workload AI-based.

Nel panorama dell’intelligenza artificiale in rapida evoluzione, le GPU sono diventate indispensabili, guidando i progressi dal deep learning all’analisi dei dati complessi. I più recenti acceleratori AMD Instinct sono progettati appositamente per offrire prestazioni ed efficienza eccezionali, offrendo funzionalità evolute attraverso l’addestramento, la messa a punto e l’inferenza del modello di base. Tuttavia, l’intelligenza artificiale non è una sfida valida per tutti, né lo è l’infrastruttura IT aziendale.

Mentre le GPU rimangono essenziali per l‘IA generativa su larga scala, le CPU AMD EPYC di quinta generazione sono tra le più avanzate per l’IA aziendale e forniscono un percorso scalabile ed economico per le applicazioni potenziate dall’IA e le prestazioni dei nodi host. Grazie all’elaborazione ad alta frequenza, alla capacità di memoria e alla compatibilità x86, AMD offre un percorso evolutivo verso l’accelerazione dell’intelligenza artificiale, consentendo alle organizzazioni di integrare, scalare e modernizzare la propria infrastruttura al proprio ritmo, con poche interruzioni.

Il data center moderno: combinazione di intelligenza artificiale e calcolo generico

I data center sono sempre più il motore e la linfa vitale del commercio. Nell’odierna economia digitale, i server web, i database, i sistemi di progettazione e analisi e altro ancora sono essenziali per le aziende di tutto il mondo. Ma i data center non si limitano più a elaborare i tradizionali carichi di lavoro aziendali. Oggi, le applicazioni aziendali tradizionali sono potenziate dall’intelligenza artificiale, trasformando completamente il panorama dei data center.
La sfida? Alimentare in modo efficiente le crescenti esigenze di questi carichi di lavoro potenziati dall’intelligenza artificiale, garantendo al contempo disponibilità e scalabilità per il futuro.

I data center moderni stanno assistendo a una combinazione di:

  1. General-Purpose Compute: Web hosting, sistemi ERP, database transazionali, analisi.
  2. Attività di intelligenza artificiale aziendale: rilevamento di frodi basato sull’intelligenza artificiale, traduzione di documenti, elaborazione del linguaggio naturale.
  3. Inferenza e formazione di modelli AI: chatbot basati sull’intelligenza artificiale, trascrizione in tempo reale, pipeline di apprendimento automatico.

Hardware progettato per i data center moderni

Per gestire questa domanda in continua evoluzione, le più recenti CPU AMD EPYC sono progettate per accelerare i carichi di lavoro tradizionali e quelli di intelligenza artificiale. Queste CPU alimentano un portafoglio completo e diversificato di sistemi di tutti i fornitori globali di soluzioni server:

  • Densità di core x86: fino a 192 core per socket, con un portafoglio completo di offerte di CPU che consentono l’esecuzione ad alte prestazioni sia dell’inferenza AI che delle attività di calcolo generali di tutte le dimensioni.
  • Capacità di memoria e larghezza di banda della CPU: Supporto di terabyte della più recente memoria DDR5 standard del settore ad alta velocità, fondamentale per i carichi di lavoro tradizionali scalabili e per i modelli di intelligenza artificiale che richiedono la conservazione in memoria di grandi set di dati.
  • Scalabilità senza interruzioni: l’architettura x86 ampiamente supportata consente un’adozione senza interruzioni dell’intelligenza artificiale senza le lunghe riscritture del codice o i costosi sforzi di porting del software necessari per adattare il codice aziendale ad architetture alternative.
  • Efficienza energetica per l’intelligenza artificiale e le applicazioni aziendali: AMD EPYC supera il superchip CPU NVIDIA Grace fino a 2,75 volte in termini di efficienza energetica.

AMD EPYC serie 7003

Prepararsi alla continua crescita dell’IA

Con l’aumento dell’adozione dell’intelligenza artificiale, i carichi di lavoro continueranno a evolversi e le aziende hanno bisogno di hardware che non le ostacoli. Sebbene le GPU siano la soluzione ideale per l’addestramento e l’intelligenza artificiale generativa di grandi dimensioni, la maggior parte dei carichi di lavoro aziendali che utilizzano l’elaborazione del linguaggio naturale, i sistemi di supporto decisionale e l’apprendimento automatico classico possono essere eseguiti in modo efficiente sulle CPU moderne, la stessa infrastruttura utilizzata per supportare le applicazioni aziendali più complesse.

L’infrastruttura di elaborazione deve essere pronta a supportare sia l’intelligenza artificiale che i carichi di lavoro tradizionali, con costi operativi minimi. Le CPU AMD EPYC aiutano a garantire che il tuo data center sia pronto per il futuro, ad alte prestazioni e pronto per la prossima ondata di adozione dell’intelligenza artificiale.

CPU: la scelta intelligente per ottenere di più dalle GPU

È risaputo che i carichi di lavoro di intelligenza artificiale su larga scala e a bassa latenza traggono vantaggio dall’accelerazione GPU. Ciò che viene spesso trascurato, tuttavia, è che per quei carichi di lavoro e implementazioni che richiedono GPU, la selezione della CPU host corretta è una decisione fondamentale. I processori AMD EPYC di quinta generazione consentono di massimizzare le prestazioni dei cluster abilitati per GPU, fornendo fino al 20% in più di throughput rispetto alle soluzioni x86 concorrenti.

Elaborazione host ad alta frequenza

Le CPU AMD EPYC di quinta generazione raggiungono velocità di clock fino a 5 GHz, offrendo una frequenza superiore del 16% rispetto alla parte a frequenza turbo superiore di Intel, lo Xeon 6745P a 4,3 GHz annunciato di recente. È anche sostanzialmente superiore alla frequenza di base di 3,1 GHz del superchip Nvidia Grace. Questa maggiore velocità di clock consente uno spostamento più rapido dei dati, l’orchestrazione delle attività e una comunicazione GPU efficiente, fattori chiave per l’addestramento e l’inferenza dell’intelligenza artificiale ad alto volume e bassa latenza.

Sebbene sia spesso l’ideale cercare di inserire interi modelli nella memoria di una GPU, non è sempre possibile. In questi casi, la piattaforma server sarà responsabile della gestione di grandi quantità di dati in modo rapido ed efficiente. Grazie al supporto di un’ampia gamma di configurazioni e capacità di memoria, nonché alla larghezza di banda per socket, le CPU AMD EPYC possono consentire l’archiviazione di interi modelli e set di dati di intelligenza artificiale nella memoria di sistema, riducendo al minimo i colli di bottiglia causati dai cicli di lettura/scrittura dello storage. Questo è un vantaggio cruciale per le applicazioni di intelligenza artificiale in tempo reale, in cui l’accesso rapido ai dati è fondamentale.

Supporto PCIe per la leadership

Lo spostamento dei dati è un potenziale collo di bottiglia nei carichi di lavoro accelerati da GPU, ma i processori AMD EPYC offrono fino a 160 corsie PCIe Gen5 in configurazioni a doppio socket, consentendo trasferimenti rapidi tra GPU, storage e infrastruttura di rete utilizzando le tecnologie standard di settore di tua scelta. Ciò offre ad AMD un vantaggio nelle implementazioni di intelligenza artificiale e negli ambienti di elaborazione aziendale, dove ogni millisecondo conta e gli approcci di rete proprietari possono essere costosi.