Data center, come sta cambiando il rapporto tra IA agentica e le CPU

Il rapporto tra processori e acceleratori nei data center per l’IA è simile a quello tra allenatore e squadra di atleti.

Data center

Julien Ruiz, Director, Commercial Sales di AMD , illustra come con l’adozione massiccia dell’IA agentica, cresca l’importanza e il ruolo delle CPU per migliorare le prestazioni dei data center.

AMDDurante l’evento ‘AMD Advancing AI’ di giugno, Lisa Su, CEO di AMD, ha descritto l’IA agentica come una nuova categoria di utenti. Ovvero: sistemi che lavorano in modo continuativo, accedendo a dati, applicazioni e servizi per prendere decisioni e portare a termine compiti complessi.

Questi sistemi utilizzano GPU ad alte prestazioni per generare analisi in tempo reale, ma l’infrastruttura circostante è altrettanto fondamentale.

Come cambiano i data center

Con l’aumento dell’attività dell’IA autonoma, i processori coordinano i flussi di lavoro, elaborano e trasferiscono i dati, gestendo tutte le operazioni attorno al modello. Anche se gli acceleratori eccellono nell’elaborazione parallela, usata per l’addestramento e molte attività di inferenza, le implementazioni moderne richiedono sistemi bilanciati. Processori, GPU, reti e software contribuiscono ciascuno in modo specifico alle prestazioni su larga scala.

Uno scenario in trasformazione

Secondo dati recenti, un sistema basato su AMD EPYC di quinta generazione offre prestazioni per core fino a 2,1 volte superiori rispetto a sistemi comparabili con il superchip Nvidia Grace. E arrivano fino a 2,26 volte superiori nel benchmark SPECpower, che misura le operazioni per watt. Altrettanto importante è l’ecosistema software consolidato dell’architettura x86. La stragrande maggioranza dei carichi di lavoro aziendali funziona già nativamente su questa piattaforma. Il tutto senza rifattorizzazione, ricompilazione o gestione di versioni multiple del codice, operazioni spesso necessarie con sistemi basati su Arm.

Data center, la collaborazione tra CPU e GPU

Il rapporto tra processori e acceleratori nei data center per l’IA è simile a quello tra un allenatore e una squadra di atleti specializzati. Il processore definisce le strategie, coordina le azioni e monitora i tempi. Mentre le GPU sono gli atleti, ognuno efficiente nell’eseguire compiti specifici ad alta velocità.

Addestramento e inferenza: ruoli diversi

È nell’addestramento che gli acceleratori danno il meglio, elaborando ripetutamente grandi matrici di dati per permettere al sistema di apprendere. I processori, in questa fase, preparano e trasferiscono i dati, gestendo sistema operativo, memoria e organizzazione delle attività. Con l’inferenza, il loro ruolo si fa più strategico. Infatti le GPU continuano a gestire i calcoli complessi delle reti neurali, ma il processore raccoglie dati, interpreta i risultati e decide le azioni finali, con attività di controllo e coordinamento che avvengono tutte in parallelo. Ed è qui che emerge la centralità dell’architettura. AMD utilizza la progettazione a chiplet: un approccio modulare che ottimizza potenza di calcolo, I/O, banda della memoria e consumi. Offrendo configurazioni adatte a scenari diversi, dalle applicazioni aziendali critiche ai flussi di lavoro di IA agentica multifase.

L’IA agentica si affida ai processori

Con l’IA agentica, sistemi capaci di pianificare, decidere e agire con minimo intervento umano, i processori assumono responsabilità crescenti. Ovvero: analizzano i risultati, gestiscono chiamate agli strumenti, richieste API e interrogazioni alla memoria. E ancora rimandando operazioni alle GPU per nuove elaborazioni prima del risultato finale. Le decisioni del ‘processore-coach’ determinano l’utilizzo delle GPU, la produttività complessiva e – elemento cruciale per i provider – il costo totale di proprietà.

Anche nei data center il sistema conta più dei singoli componenti

L’IA agentica allarga le possibilità dell’intelligenza artificiale, ma conferma un principio chiave: i migliori risultati richiedono sistemi bilanciati. Gli acceleratori continueranno a fornire la potenza di calcolo, ma i processori assumono un ruolo sempre più centrale nell’orchestrazione e nell’efficienza complessiva. Permettendo così di aumentare la densità dei sistemi senza espandere spazio fisico o consumi energetici.

L’ottimizzazione coordinata di processori, acceleratori, reti e software garantisce il miglior rapporto tra prestazioni e consumi. Le nuove generazioni di processori server sono progettate con questa filosofia: prestazioni elevate, alta densità ed efficienza energetica in architetture scalabili a livello di rack e cluster. La base per orchestrare un numero crescente di acceleratori e assicurare che l’intero sistema funzioni in modo efficiente.