I microservizi NVIDIA NIM arrivano su Red Hat OpenShift AI

Un’integrazione che consente alle aziende di aumentare la produttività sfruttando le capacità dell’AI generativa.

red hat openshift

Red Hat collabora con NVIDIA e avvia l’integrazione dei microservizi NVIDIA NIM su Red Hat OpenShift AI per sviluppare applicazioni guidate dalla GenAI su un’unica piattaforma MLOps affidabile. L’integrazione di NVIDIA NIM, microservizi di inferenza di facile utilizzo inclusi nella piattaforma software NVIDIA AI Enterprise, consentirà di utilizzare Red Hat OpenShift AI per accelerare l’erogazione di applicazioni di AI generativa e velocizzare il time to value.

Le tante potenzialità di OpenShift AI

Il supporto di NVIDIA NIM su Red Hat OpenShift AI si basa sull’ottimizzazione per NVIDIA AI Enterprise esistente sulle tecnologie cloud ibride aperte di Red Hat. Fra queste Red Hat Enterprise Linux e Red Hat OpenShift. Tramite quest’ultima collaborazione, NVIDIA abiliterà l’interoperabilità di NIM con KServe. Si tratta di un progetto open source basato su Kubernetes per casi d’uso AI altamente scalabili e un collaboratore core upstream di Red Hat OpenShift AI. Contribuendo così ad alimentare l’interoperabilità continua dei microservizi NVIDIA NIM nelle future iterazioni di Red Hat OpenShift AI.

Focus sull’innovazione open source

Chris Wright, Chief Technology Officer e Senior Vice President, Global Engineering, Red Hat Grazie alla collaborazione con NVIDIA, Red Hat vuole abbattere le barriere e le complessità legate alla rapida creazione, gestione e distribuzione di applicazioni abilitate dall’intelligenza artificiale generativa. Red Hat OpenShift AI fornisce una base scalabile e flessibile per estendere la portata dei microservizi NIM, consentendo agli sviluppatori di disporre di container pre-costruiti e API standard del settore. Il tutto alimentato dall’innovazione open source.

Il ruolo dell’azienda

Justin Boitano, Vicepresidente dei prodotti aziendali di NVIDIA
In ogni azienda, i team di sviluppo vogliono portare in produzione le proprie applicazioni di AI generativa nel modo più rapido e sicuro possibile. L’integrazione di NVIDIA NIM in Red Hat OpenShift AI segna una svolta cruciale nella nostra collaborazione. Perché aiuterà gli sviluppatori a costruire e scalare rapidamente applicazioni aziendali innovative. Il tutto utilizzando fondamenta e modelli di embedding ottimizzati per le prestazioni in qualsiasi cloud o data center.

NVIDIA NIM su OpenShift AI

Questa integrazione consente alle aziende di aumentare la produttività sfruttando le capacità dell’AI generativa in diversi ambiti. Come ad esempio l’ottimizzazione del servizio clienti con assistenti virtuali, la riepilogazione dei casi per i ticket IT e l’accelerazione delle operazioni aziendali con copiloti domain-specific. Utilizzando Red Hat OpenShift AI con NVIDIA NIM, le aziende possono beneficiare di:

  • un percorso di integrazione semplificato per distribuire NVIDIA NIM insieme ad altri deployment di AI in un workflow comune. Con l’obiettivo di favorire maggiore coerenza e una gestione semplificata.
  • Scalabilità e monitoraggio integrati per le implementazioni di NVIDIA NIM strettamente correlati ad altre implementazioni di modelli di AI in ambienti hybrid cloud.
  • Sicurezza, supporto e stabilità di livello enterprise per garantire alle aziende che gestiscono il proprio business sull’AI una transizione fluida dal prototipo alla produzione.

Implementare le soluzioni AI

I microservizi NVIDIA NIM sono progettati per accelerare l’implementazione dell’intelligenza artificiale nelle aziende. Grazie al supporto di una gamma di modelli di AI, compresi quelli della comunità open-source, di NVIDIA AI Foundation e personalizzati, NIM offre inferenze di AI scalabili e senza soluzione di continuità. Inferenze sia on-premise che nel cloud, tramite interfacce di programmazione delle applicazioni (API) standard del settore.