HPE collabora con Nvidia per l’AI generativa

HPE ha annunciato la sua nuova architettura AI-native aperta e full-stack e una serie di soluzioni AI-native e di hybrid cloud.

ai generativa

Hewlett Packard Enterprise ha annunciato una partnership strategica con Nvidia per realizzare una soluzione di classe enterprise per l’AI generativa.

La soluzione co-ingegnerizzata e preconfigurata per l’addestramento e il tuning di modelli AI consente alle aziende di qualsiasi dimensione di personalizzare rapidamente i modelli di base utilizzando dati privati e di distribuire le applicazioni di produzione ovunque, dall’edge al cloud. L’offerta elimina la complessità dello sviluppo e dell’implementazione dell’infrastruttura GenAI grazie a una soluzione full-stack di AI tuning e d’inferenza.

Le aziende che sviluppano e implementano modelli GenAI per casi d’uso come la ricerca conversazionale, l’automazione dei processi aziendali e la creazione di contenuti, necessitano di uno stack, software e infrastrutturale, che possa essere implementato rapidamente e dovunque l’azienda ne abbia bisogno. La nuova soluzione di classe enterprise per l’AI generativa fa parte di una collaborazione consolidata tra HPE e Nvidia che offre soluzioni di AI full-stack e out-of-the-box. Queste soluzioni integrano HPE Machine Learning Development Environment, HPE Ezmeral Software, HPE ProLiant Compute e HPE Cray Supercomputers con Nvidia Ai Enterprise software suite, incluso il framework Nvidia Nemo.

Aumentare la velocità dell’AI con una soluzione appositamente costruita per il tuning e l’inferenza AI

La soluzione di classe enterprise per l’AI generativa è una nuova soluzione di AI tuning e di inferenza per data center che offre alle aziende di tutte le dimensioni un punto di ingresso per iniziare rapidamente il loro viaggio nell’AI grazie a un’offerta pronta all’uso.

Con la nuova soluzione di classe enterprise per l’AI generativa, le aziende possono utilizzare modelli di base preaddestrati con i loro dati privati per creare applicazioni come gli AI chatbot. Inoltre, i workstream di retrieval-augmented generation (RAG) migliorano ulteriormente la qualità dei dati e la precisione dell’applicazione.

Costruito e ottimizzato per l’AI: Un’architettura su scala rack con HPE ProLiant Compute DL380a preconfigurata con GPU Nvidia L40S, DPU Nvidia BlueField-3 e nvidia Spectrum-X Ethernet Networking Platform per l’AI hyperscale. La soluzione è stata progettata per mettere a punto un modello Llama 2 a 70 miliardi di parametri e comprende 16 server HPE ProLiant DL380a e 64 GPU L40S.

HPE AI software: HPE Machine Learning Development Environment Software con nuove funzionalità di studio dell’intelligenza artificiale per prototipare e testare rapidamente i modelli e HPE Ezmeral Software con nuove funzionalità GPU-aware per semplificare l’implementazione e accelerare la preparazione dei dati per i workload di intelligenza artificiale nel cloud ibrido.

Nvidia AI software: Nvidia Ai Enterprise per accelerare lo sviluppo e l’implementazione dell’AI di produzione con sicurezza, stabilità, gestione e supporto. Offre il framwork Nvidia NeMo, i toolkit di controllo dei dati (guardrail), gli strumenti per la cura dei dati e i modelli preaddestrati per semplificare la GenAI aziendale.

I servizi HPE per accelerare il percorso dell’azienda verso l’AI

HPE Services offre ora un ampio portfolio di servizi di consulenza, formazione della forza lavoro e soluzioni di implementazione. I nuovi servizi AI accompagnano i clienti in ogni fase del percorso: dalla scoperta della GenAI e dei LLM alla loro implementazione, dove i clienti sviluppano i modelli operativi ottimali e le strategie di dati in hybrid cloud necessarie per costruire, distribuire e scalare le soluzioni in risultati tangibili. Questi servizi sono supportati dai nuovi Centri globali per l’AI/Dati aperti in Spagna, Stati Uniti, Bulgaria, India e Tunisia.

HPE accelera l’Ai training con una nuova soluzione chiavi in mano powered by Nvidia

In occasione di SC23, HPE ha annunciato una soluzione di supercomputing “chiavi in mano”, powered by Nvidia, destinata alle grandi imprese, agli istituti di ricerca e alle organizzazioni governative per affrontare la prima fase del ciclo di vita dell’AI: lo sviluppo e l’addestramento dei modelli di base fondamentali. La soluzione di classe enterprise per l’AI generativa è una soluzione di dimensioni ridotte per le aziende focalizzate sulla fase di tuning e inferenza dei modelli.

Nuova architettura AI-native e soluzioni di hybrid cloud per accelerare lo sviluppo e l’implementazione di modelli AI

In occasione di HPE Discover Barcelona 2023, HPE ha annunciato la sua nuova architettura AI-native aperta e full-stack e una serie di soluzioni AI-native e di hybrid cloud per lo sviluppo di modelli per il machine learning, per la data analytics, per il file storage AI-optimized, per il tuning e l’inferenza AI e i servizi professionali.