Nutanix e NVIDIA alleate per l’adozione della GenAI

La partnership riunirà la piattaforma Nutanix GPT-in-a-Box 2.0con i microservizi NVIDIA NIM.

intelligenza artificiale GenAI

Durante l’evento .NEXT Nutanix ha presentato la collaborazione con NVIDIA per accelerare l’adozione della GenAI a livello aziendale. Grazie all’integrazione dei microservizi di inferenza NVIDIA Nim con Nutanix GPT-in-a-Box 2.0, i sarà possibile di creare applicazioni GenAI scalabili, sicure e ad alte prestazioni.

Coinvolgere anche le aziende più piccole

Oggi, la maggior parte dell’innovazione in ambito IA è incentrata sul cloud pubblico, dato l’accesso a infrastrutture e strumenti per supportare le esigenze delle applicazioni di IA. Inoltre, solo le imprese di più grandi dimensioni con team di data scientist hanno fatto progressi nell’adozione della GenAI. Tuttavia, secondo il report State of Enterprise AI, la maggior parte delle aziende sta investendo per sostenere la propria strategia di IA, anche incrementando gli investimenti all’edge. Manca una corsia preferenziale che consenta alle aziende di diffondere la GenAI al di là del cloud pubblico, all’interno dell’azienda e all’edge.

L’intervento dei data scientist

L’integrazione dei microservizi NVIDIA NIM da parte di Nutanix consentirà ai clienti di sfruttare Nutanix GPT-in-a-Box 2.0. Ovvero una soluzione creata sulla base della piattaforma di elaborazione e servizi dati dell’azienda. Da utilizzare per semplificare l’implementazione dei modelli di IA e per eseguire in modo più efficace ed efficiente le applicazioni IA/ML aziendali. Ciò consentirà di ampliare l’accesso al crescente catalogo di microservizi NVIDIA NIM dall’azienda fino all’edge, contribuendo a velocizzare i progetti di GenAI senza richiedere un team di data scientist.

Nutanix e NVIDIA alleate

La collaborazione di Nutanix con NVIDIA aiuta a semplificare l’esperienza, che molte aziende oggi trovano gravosa. Oltre a prendere tutte le decisioni necessarie per l’adozione di soluzioni IA, come scegliere tra centinaia di migliaia di modelli, motori e infrastrutture di supporto. Inoltre aggira la mancanza di nuove competenze necessarie per offrire soluzioni GenAI ai loro clienti. Nutanix GPT-in-a-Box semplifica la creazione di uno stack AI-ready, integrato con Nutanix Objects e Nutanix Files per lo storage di modelli e dati, permettendo ai clienti di mantenere il controllo sui dati. Le nuove funzionalità disponibili in GPT-in-a-Box 2.0 automatizzeranno la distribuzione e l’esecuzione degli endpoint di inferenza per un’ampia gamma di modelli IA. Proteggeranno anche l’accesso al modello utilizzando funzionalità granulari di controllo e verifica degli accessi.

Più flessibilità

I microservizi NIM, che vengono eseguiti sulla Nutanix Cloud Platform, abiliteranno il processo di inferenza dell’IA su un’ampia gamma di modelli. Tra questi modelli della comunità open source, modelli NVIDIA AI Foundation e modelli personalizzati, sfruttando le interfacce di programmazione delle applicazioni standard. Per supportare l’integrazione, Nutanix ha inoltre annunciato la certificazione per la piattaforma software NVIDIA AI Enterprise 5.0 per semplificare lo sviluppo e la distribuzione dell’IA in produzione, tra cui NVIDIA NIM.

Privacy e costi: Nutanix e NVIDIA alleate

Tarkan Maner è il nuovo Chief Commercial Officer di Nutanix

Tarkan Maner, Chief Commercial Officer di Nutanix
Le aziende stanno cercando di semplificare l’adozione dell’IA generativa. Nutanix permette ai clienti di passare all’implementazione con maggiore facilità, mantenendo il controllo, preservando la privacy e monitorando i costi. Questa collaborazione aggiungerà ulteriore valore a questo aspetto, rendendo ancora più facile per i clienti sfruttare le più recenti innovazioni di NVIDIA con NIM.

Manuvir Das, Vice President of Enterprise Computing di NVIDIA
In tutti i settori, le aziende stanno lavorando per integrare in modo efficiente l’IA nelle piattaforme cloud e dati alla base delle loro operazioni. L’integrazione di NVIDIA NIM in Nutanix GPT-in-a-Box offre alle aziende una soluzione per sviluppare rapidamente modelli di IA ottimizzati in produzione.