Hewlett Packard Enterprise con NVIDIA aggiorna il proprio portfolio AI-native per migliorare l’operatività delle applicazioni di AI generativa.
Accelerare lo sviluppo e implementare la GenAI
Antonio Neri, Presidente e CEO di HPE Per soddisfare le aspettative sulla GenAI e sfruttare efficacemente l’intero ciclo di vita dell’AI, le soluzioni devono essere ibride by design. Dal training e tuning dei modelli on-premises, in una struttura di colocation o nel cloud pubblico, fino all’inferenza sull’edge, l’AI è un workload hybrid cloud. HPE e NVIDIA vantano una lunga storia di collaborazione nell’innovazione tecnologica e continueranno a offrire soluzioni software e hardware AI progettate congiuntamente. Questo aiuterà i nostri clienti ad accelerare lo sviluppo e l’implementazione della GenAI, dal concept alla produzione.
Hewlett Packard Enterprise con NVIDIA
Jensen Huang, Fondatore e CEO di NVIDIA
L’IA generativa è in grado di trasformare i dati provenienti dai dispositivi connessi, dai data center e dai cloud in insight che possono portare a innovazioni in tutti i settori. La nostra crescente collaborazione con HPE consentirà alle imprese di conseguire una produttività senza precedenti. E questo sfruttando i propri dati per sviluppare e distribuire nuove applicazioni di AI in grado di trasformare le loro aziende.
Training e tuning della GenAI alimentato da supercomputer
Annunciata alla SC23, la soluzione di supercomputing di HPE per AI generativa è ora disponibile per le organizzazioni che cercano una soluzione full-stack preconfigurata e testata. Una soluzione destinata allo sviluppo e all’addestramento di modelli di AI di grandi dimensioni. Realizzata per accelerare i progetti di GenAI e deep learning, la soluzione chiavi in mano è alimentata da NVIDIA e può supportare fino a 168 NVIDIA GH200 Grace Hopper Superchip. La soluzione consente alle grandi imprese, agli istituti di ricerca e agli enti governativi di semplificare il processo di sviluppo dei modelli con uno stack di software AI/ML. Questo aiuta i clienti ad accelerare i progetti di GenAI e deep learning. Fra questi gli LLM, sistemi che forniscono una raccomandazione come output e database vettoriali.
Una soluzione preconfigurata di fine-tuning
Presentata in anteprima a Discover Barcelona 2023, la soluzione di enterprise computing di HPE per l’AI generativa è ora disponibile per i clienti direttamente o tramite HPE GreenLake con un modello pay-per-use flessibile e scalabile. Co-progettata con NVIDIA, la soluzione preconfigurata di fine-tuning e inferenza è progettata per ridurre i tempi e i costi di ramp-up. Questo attraverso l’offerta di servizi di calcolo, storage, software, networking e consulenza di cui le organizzazioni hanno bisogno per produrre applicazioni GenAI.
La soluzione AI-native full-stack offre alle aziende velocità, scalabilità e controllo, necessari per personalizzare i modelli fondamentali utilizzando dati privati e distribuire applicazioni di GenAI all’interno di un modello di cloud ibrido.
Hewlett Packard Enterprise con NVIDIA aggiorna il portfolio AI-native
Grazie a un cluster di calcolo per l’AI ad alte prestazioni e al software di HPE e di NVIDIA, la soluzione è ideale per il fine-tuning leggero dei modelli, la RAG e l’inferenza fornita con architettura scale-out. Il tempo di fine-tuning per un modello Llama 2 da 70 miliardi di parametri che esegue questa soluzione diminuisce linearmente con il numero di nodi. Richiede infatti sei minuti su un sistema a 16 nodi. La velocità e le prestazioni consentono ai clienti di realizzare un time-to-value più rapido migliorando la produttività aziendale con applicazioni AI come assistenti virtuali, chatbot intelligenti e ricerca aziendale.
Superare il divario di competenze
Basata sui server HPE ProLiant DL380a Gen11, la soluzione è preconfigurata con le GPU NVIDIA, la piattaforma di rete NVIDIA Spectrum-X Ethernet e le DPU NVIDIA BlueField-3. La soluzione è potenziata dalla piattaforma di ML e dal software di analisi di HPE, il software NVIDIA AI Enterprise 5.0 con il nuovo microservizio NVIDIA NIM per l’inferenza ottimizzata di modelli generativi di intelligenza artificiale. Oltre a NVIDIA NeMo Retriever e ad altre librerie di data science e AI. Per colmare il possibile divario di competenze in materia di AI, gli esperti di HPE Services aiuteranno le aziende a progettare, implementare e gestire la soluzione. Questa comprende l’applicazione di tecniche adeguate di tuning dei modelli.
Dal prototipo alla produttività
HPE e NVIDIA stanno collaborando su soluzioni software che aiuteranno le aziende a fare il passo successivo, trasformando proof-of-concept di AI e ML in applicazioni di produzione. Disponibile in anteprima per i clienti HPE, HPE Machine Learning Inference Software consentirà alle aziende di implementare in modo rapido e sicuro i modelli di ML su larga scala. La nuova offerta si integrerà con NVIDIA NIM per fornire modelli di base ottimizzati per NVIDIA utilizzando container precostituiti.
Personalizzare chatbot, generator, copilot
Per aiutare le aziende che hanno bisogno di creare e distribuire rapidamente applicazioni di GenAI che utilizzano dati privati, HPE ha sviluppato un’architettura di riferimento per il RAG aziendale. Questa si basa sull’architettura a microservizi chiamata NVIDIA NeMo Retriever. L’offerta consiste in una base dati integrata da HPE Ezmeral Data Fabric Software e HPE GreenLake for File Storage. La nuova architettura di riferimento offrirà alle aziende un modello per creare chatbot, generator o copilot personalizzati.
Hewlett Packard Enterprise con NVIDIA
Per facilitare la preparazione dei dati, la fase di addestramento dei modelli di AI e la fase di inferenza, la soluzione unifica l’intera gamma di strumenti e soluzioni open-source di HPE Ezmeral Unified Analytics Software e il software AI di HPE. Questo comprende HPE Machine Learning Data Management Software, HPE Machine Learning Development Environment Software, e il nuovo HPE Machine Learning Inference Software. Il software di HPE per l’AI è disponibile su entrambe le soluzioni di supercomputing e di enterprise computing di HPE per l’AI generativa, in modo da fornire ai clienti un approccio uniforme per la gestione dei workload GenAI.
Soluzioni di nuova generazione
HPE svilupperà prodotti futuri basati sulla nuova piattaforma NVIDIA Blackwell. La piattaforma incorpora un Transformer Engine di seconda generazione per accelerare i workload di GenAI.