Red Hat e Run:ai, ottimizzare GPU e workload AI

I prossimi passi della collaborazione comprendono lo sviluppo delle soluzioni in essere e la sempre maggiore integrazione su Red Hat OpenShift AI.

GPU

Red Hat collabora con Run:ai, specializzata nell’ottimizzazione e nell’orchestrazione dell’AI. Obiettivo: massimizzare le risorse GPU e a semplificare i flussi di lavoro AI.

Le funzionalità esclusive saranno integrate in Red Hat OpenShift AI. Durante l’incontro abbiamo potuto ascoltare il punto di vista di Jan Wildeboer, EMEA Evangelist di Red Hat, Steve Blow, Solutions Engineer di Run:ai, Dominika Oliver PhD, senior manager, Intelligent Application Platform Enablement di Red Hat e Fevzi Konduk, EMEA Head of Ecosystem Market Incubation di Red Hat.

Secondo le aspettative, questa collaborazione metterà a disposizione delle imprese clienti risorse AI per la gestione ottimale dei flussi di lavoro e una piattaforma MLOps potente e affidabile.

Jan Wildeboer

Jan Wildeboer, EMEA Evangelist di Red Hat

In questo scenario, le GPU giocano un ruolo fondamentale: grazie all’elevatissimo numero di core e alla capacità di parallelizzare il calcolo sono strumenti ideali per l’addestramento di modelli AI, l’inferenza e la sperimentazione in senso generale.
Ma c’è un rovescio della medaglia: l’uso di processori specializzati può risultare oneroso sotto differenti aspetti. Ed è qui che Red Hat e Run:ai stanno lavorando per soddisfare le esigenze di mercato, per l’ottimizzazione delle risorse GPU con Run:ai’s certified OpenShift Operator on Red Hat OpenShift AI, che aiuta gli utenti a scalare e ottimizzare i loro carichi di lavoro AI ovunque si trovino.

Red Hat

da sinistra: Steve Blow, Solutions Engineer di Run:ai, Dominika Oliver PhD, senior manager, Intelligent Application Platform Enablement di Red Hat e Fevzi Konduk, EMEA Head of Ecosystem Market Incubation di Red Hat.

La sinergia che si è venuta a creare consentirà di risolvere problemi di pianificazione delle GPU per i carichi di lavoro AI grazie a uno schedulatore su misura. Parliamo di una soluzione ideata per assegnare le priorità ai carichi di lavoro mission-critical e consentire l’allocazione delle giuste risorse per supportare tali carichi di lavoro.
Non solo, sarà possibile usare GPU frazionali e capacità di monitoraggio per allocare dinamicamente le risorse in base alle priorità e alle policy preimpostate e aumentare l’efficienza dell’infrastruttura.
Nel complesso, questa soluzione consentirà di migliorare controllo e visibilità sull’infrastruttura di GPU condivisa. Ciò faciliterà l’accesso e l’allocazione delle risorse tra i team IT, di data science e di sviluppo delle applicazioni.

I prossimi passi di questa collaborazione comprendono il continuo sviluppo delle soluzioni in essere e la sempre maggiore integrazione per Run:ai su Red Hat OpenShift AI.

Red Hat OpenShift AI

OpenShift AI offre alle organizzazioni un modo efficiente per implementare un set integrato di strumenti open source e di terze parti per eseguire la modellazione AI/ML.

Gli utenti hanno a disposizione un set di strumenti open source collaborativo e una piattaforma per la creazione di modelli sperimentali senza doversi preoccupare della gestione dell’infrastruttura o di potenziali lock-in di strumenti specifici del cloud pubblico. Possono quindi estendere la piattaforma di base con strumenti dei partner per ottenere maggiori funzionalità. OpenShift AI fornisce un ambiente semplice da gestire, con configurazioni rapide, il tutto su una piattaforma collaudata, scalabile e incentrata sulla sicurezza.

gpu

OpenShift AI supporta i più diffusi modelli di base di intelligenza artificiale, e permette di ottimizzare, perfezionare e integrare questi modelli pre-addestrati per differenti casi d’uso, a partire dai dati cliente. I singoli workload possono anche essere distribuiti su più cluster Red Hat OpenShift, indipendentemente dalla loro posizione.
Come anticipato, la piattaforma semplifica lo sfruttamento dell’accelerazione hardware AI, supportando l’infrastruttura hardware basata su unità di elaborazione centrale (CPU) e unità di elaborazione grafica (GPU), tra cui GPU Nvidia e Intel XPU, il tutto senza la necessità di gestire la propria piattaforma di data science.

Steven Huels, vicepresidente e direttore generale della Business Unit AI, Red Hat
La crescente adozione dell’AI e la domanda di GPU impone alle aziende di ottimizzare la propria piattaforma AI per ottenere il massimo dalle proprie operazioni e infrastrutture, indipendentemente dalla loro collocazione nel cloud ibrido. Grazie alla nostra collaborazione con Run:ai, stiamo consentendo alle organizzazioni di massimizzare i carichi di lavoro AI su scala senza sacrificare l’affidabilità di una piattaforma AI/ML o le risorse GPU preziose, ovunque sia necessario.

Omri Geller, CEO e fondatore di Run:ai
Siamo entusiasti di collaborare con Red Hat OpenShift AI per accrescere la potenza delle operation AI. Combinando i punti di forza MLOps di Red Hat OpenShift con l’esperienza di Run:ai nella gestione delle infrastrutture di intelligenza artificiale, stiamo innalzando gli standard dell’AI aziendale fornendo scalabilità continua e gestione ottimizzata delle risorse.