Intel Xeon 6, prestazioni al top per AI e inferenza

Intel ha sostenuto cinque partner OEM: Cisco, Dell Technologies, HPE, Quanta e Supermicro, con le loro proposte MLPerf in questo round.

Intel Xeon

Intel Xeon 6 offre risultati fino a 17 volte migliori nei carichi AI, i recenti benchmark MLPerf dimostrano le prestazioni nei workload di inferenza e uso generale.

MLCommons ha pubblicato oggi i risultati di MLPerf Inference v4.1, la suite di benchmark di prestazioni AI. Intel ha partecipato a sei benchmark MLPerf con i processori Intel Xeon Scalable di quinta generazione e, per la prima volta, con i processori Intel Xeon 6 con Performance-core (P-core). Questi ultimi hanno ottenuto un miglioramento nella media geometrica delle prestazioni AI di circa 1,9 volte rispetto ai processori Xeon di quinta generazione.

Pallavi Mahajan, Intel corporate vice president e general manager, Data Center and AI Software
I più recenti risultati di MLPerf mostrano come i costanti investimenti siano essenziali per migliorare le prestazioni dell’AI. Negli ultimi quattro anni, abbiamo alzato l’asticella delle prestazioni dei processori Intel Xeon, con un miglioramento fino a 17 volte nei benchmark. Mentre ci prepariamo a rendere gli Xeon 6 disponibili al pubblico generale nel corso di quest’anno, lavoriamo con i nostri clienti e partner per renderli più performanti.

Nei sistemi AI, la CPU è un componente fondamentale per installare con efficacia soluzioni per la gestione di molteplici scenari. Intel Xeon fornisce un’ottima soluzione per l’inferenza AI, tra cui il machine learning classico e l’embedding della ricerca vettoriale.

Con MLPerf Inference v4.1, Intel ha presentato i processori Intel Xeon di quinta generazione e i processori Xeon 6 con P-Core su ResNet50, RetinaNet, 3DUNet, BERT, DLRM v2 e GPT-J. Rispetto a Intel Xeon di quinta generazione, Xeon 6 offre in media prestazioni di inferenza AI circa 1,9 volte più elevate in questi sei benchmark. Intel continua a essere l’unico fornitore di processori per server a sottoporre CPU ai benchmark MLPerf.

Nel corso degli ultimi quattro anni, da quando ha partecipato per la prima volta ai benchmark MLPerf, Intel ha fatto notevoli progressi nelle prestazioni AI delle proprie CPU. Rispetto ai processori Intel Xeon Scalable di terza generazione del 2021, Xeon 6 offre prestazioni fino a 17 volte superiori nell’elaborazione del linguaggio naturale (BERT) e fino a 15 volte superiori nei carichi di lavoro di computer vision (ResNet50). Intel continua a investire nell’AI per la propria roadmap di CPU. Ad esempio, continuando a innovare con Intel Advanced Matrix Extensions (AMX) attraverso nuovi tipi di dati e una maggiore efficienza.

I più recenti benchmark MLCommons evidenziano come i processori Xeon forniscano potenti soluzioni AI CPU per i server agli OEM. Via via che crescono le esigenze di elaborazione AI e molti clienti eseguono carichi di lavoro AI insieme ai loro carichi di lavoro aziendali, gli OEM stanno dando priorità ai processori sottoposti ai benchmark MLPerf per garantire di fornire ai clienti sistemi Xeon altamente performanti ottimizzati per carichi di lavoro AI.

Intel ha sostenuto cinque partner OEM: Cisco, Dell Technologies, HPE, Quanta e Supermicro, con le loro proposte MLPerf in questo round. Ogni cliente si è presentato ai benchmark MLPerf con processori Xeon Scalable di quinta generazione, mostrando come i loro sistemi supportano una varietà di carichi di lavoro e installazioni AI.