
Hewlett Packard Enterprise (HPE) ha presentato alla stampa le novità che ha in serbo per l’evento Nvidia GTC (GPU Technology Conference). Si tratta di innovazioni legate all’intelligenza artificiale per le aziende, in ambito hardware e software. Nel primo caso sono macchine che integrano i processori AI più recenti di Nvidia, nel secondo sono piattaforme e strutture pensate per gestire – nel cloud o nel cloud ibrido – le grandi quantità di dati che servono per l’addestramento e il funzionamento dell’AI.
Lo scopo di HPE è sviluppare soluzioni per semplificare l’impiego dell’AI nelle aziende. Grazie ai prodotti più recenti di Nvidia, HPE riduce il time il market, accelera lo sviluppo di nuovi prodotti da parte del cliente finale, fornisce un servizio completo alle aziende, offre soluzioni integrate e scalabili, a prova di futuro.
In occasione dell’evento Nvidia GTC 2025, HPE annuncerà soluzioni per:
- Consentire ai clienti leader del settore di accelerare l’adozione dell’intelligenza artificiale, dalla formazione all’inferenza (la fase operativa dell’AI, ovvero il momento in cui il modello è in grado di applicare alle situazioni concrete ciò che ha appreso durante l’addestramento)
- Soluzioni modulari ed efficienti dal punto di vista energetico per i data center AI
- L’impiego di AI nel cloud privato per un percorso più veloce per la distribuzione degli AI agent
- Layer di dati unificato che collega Alletra Storage MP e i dati distribuiti per alimentare gli AI agent
Un’infrastruttura pronta per l’AI
HPE offre soluzioni hardware ottimizzate per far girare l’AI, per l’addestramento, il tuning, l’inferenza. Le soluzioni di HPE sono Cray, ProLiant XD, Private Cloud AI, ProLiant DL e sono già state scelte da numerose società di livello enterprise, come Skild Brain che sviluppa robot anche umanoidi dotati di intelligenza artificiale per riconoscere e interagire con la realtà in tempo reale, grazie ai prodotti HPE Cray XD670 con GPU Nvidia H200 e ProLiant DL380a con GPU Nvidia L40S.
HPE è una delle principali società specializzate nella costruzione di data center dedicati all’AI. In questo settore è risultata terza nel 2024, con più di 3.000 progetti completati in oltre 40 Paesi, inoltre detiene oltre 300 brevetti relativi al raffreddamento a liquido. Sette dei dieci supercomputer più potenti al mondo usano le soluzioni HPE per il raffreddamento.
Una novità di HPE per l’hardware AI è l’AI Mod POD, un AI data center modulare, completo e ad alta densità, contenuto in un unico container. Il prodotto è disponibile in due versioni, DC8 DLC e DC16 DLC. La prima è un container lungo 20 piedi, che ospita fino a 8 rack, con una potenza per l’IT di 0,8 MW. La seconda è lunga 40 piedi e contiene 16 rack, per una potenza di 1,6 MW.
La soluzione vanta un PUE (Power Usage Effectiveness, il rapporto tra l’energia totale consumata dal data center e l’energia necessaria per le apparecchiature IT) minore di 1,1 (la media dei prodotti della concorrenza è di 2,0) e si installa tre volte più velocemente.
Le soluzioni di HPE per il Private Cloud AI
HPE sviluppa insieme a Nvidia le soluzioni per far funzionare l’AI aziendale nel cloud privato, per creare e rendere operativi i nuovi modelli di AI in maniera più veloce. La cooperazione con Nvidia assicura che il software relativo all’intelligenza artificiale sia sempre aggiornato, inoltre l’infrastruttura dedicata all’AI è integrata per garantire prestazioni ed esperienza ottimali man mano che l’AI cresce all’interno dell’azienda.
La soluzione Private Cloud AI di HPE consente la scalabilità e il controllo dell’AI in maniera fluida e senza interruzioni, dallo sviluppo (è la novità più recente) all’inferenza con RAG e con il fine tuning, dove RAG (Retrieval-Augmented Generation) è la generazione potenziata dal recupero, una tecnica per migliorare l’accuratezza e l’affidabilità dei modelli di AI generativa con informazioni ricavate da fonti di dati specifiche e pertinenti. La scalabilità è garantita dal cloud ibrido Greenlake di HPE, che consente la distribuzione e la gestione delle risorse nei cloud pubblici e privati, mantenendo al contempo il controllo dei dati e la flessibilità sulla modalità di consumo e gestione dei servizi.
Le novità lato software di Private Cloud AI di HPE includono:
- CrewAI nel programma Unleash AI. CrewAI consente un’automazione multi-agente sicura e scalabile per l’efficienza aziendale. Sarà ora pre-validata in Private Cloud AI
- Ottimizzazione GPU completa. Gestione delle istanze in Private Cloud AI, delle GPU individuali e dei cluster su larga scala con un’unica soluzione da OpsRamp
- HPE Data Fabric integrato. Accesso senza interruzioni ai dati aziendali distribuiti, per una maggiore produttività degli sviluppatori e l’accelerazione delle pipeline AI
- Fast Track per Nvidia Blueprint. Distribuzione più rapida ed efficiente di Blueprint basati su agent, tra cui AI Virtual Assistant ed estrazione multimodale da documenti PDF
Sempre in un’ottica di fornire ai clienti finali soluzioni AI più performanti ed efficaci, HPE ha stretto un’alleanza, oltre che con Nvidia, anche con Deloitte. Grazie a questa partnership, HPE e Deloitte offriranno Zora AI, l’intelligenza artificiale specializzata per il mondo della finanza, subito installabile in Private Cloud AI. Questa soluzione reinventa i tradizionali report dei dirigenti finanziari, trasformando i report statici in approfondimenti dinamici e interattivi. I CFO possono ora accedere a scenari di analisi finanziaria in tempo reale, modellazione e market intelligence.
Accelerare l’AI con una struttura unificata per i dati e con un archivio intelligente di livello enterprise
Per offrire un’architettura che consenta un servizio unificato per i dati, HPE ha sviluppato Alletra Storage MP, un archivio disaggregato che riduce a zero l’overprovisioning, abbassa del 45% i consumi di energia e consente un risparmio del 40% rispetto alle soluzioni tradizionali.
Più in dettaglio, il nuovo Alletra Storage MP B10000, il primo servizio unificato e disaggregato per la gestione dei dati sotto forma di blocchi e file, semplifica la gestione dei dati strutturati:
- Gestione dati unificata per blocchi e file: nuovo servizio per i file, aggiunto agli array B10000
- Sicurezza avanzata: rilevamento ransomware nativo e multilivello
- Supporto di Microsoft Azure: lo storage definito a livello software di B10000 può essere caricato in Azure
Il layer unificato per i dati consente di distribuire le informazioni, con una modalità pronta per l’intelligenza artificiale, ed è implementato tramite HPE Data Fabric, che collega i nodi dell’edge, i data center e le risorse cloud. Data Fabric consente un accesso universale, è multi protocollo, gestisce in automatico i livelli e offre un ambiente globale ed espanso per Apache Iceberg, HPE Alletra Storage MP X10000 e Private Cloud AI.
Alletra Storage MP supporta le funzioni di rete delle soluzioni di Nvidia, per un accesso ad alta velocità ai dati AI e per una gestione ottimizzata dei carichi di lavoro dovuti all’intelligenza artificiale, grazie a un archivio con una latenza estremamente bassa.
La soluzione di HPE Alletra Storage MP X10000 tratta i dati in maniera intelligente e nativa, con funzioni di preparazione delle informazioni per i flussi RAG in tempo reale. Inoltre l’accesso diretto alla memoria RDMA (una funzione che sarà implementata a partire dalla prossima release) migliora lo sfruttamento delle GPU, aumentando la larghezza di banda e riducendo la latenza.