Red Hat annuncia il lancio di Red Hat Enterprise Linux AI (RHEL AI), una piattaforma di modelli che consente agli utenti di sviluppare, testare e distribuire modelli di intelligenza artificiale generativa (GenAI) in modo più semplice. RHEL AI riunisce la famiglia di modelli linguistici Granite large language model (LLM), con licenza open source, di IBM Research, i tool di allineamento dei modelli di InstructLab basati sulla metodologia LAB (Large-scale Alignment for chatBot) e un approccio allo sviluppo dei modelli guidato dalla comunità attraverso il progetto InstructLab. L’intera soluzione è confezionata come immagine RHEL ottimizzata e avviabile per la distribuzione di singoli server nel cloud ibrido, oltre a essere inclusa in OpenShift AI, la piattaforma ibrida di Red Hat per le attività di machine learning (MLOps), per l’esecuzione di modelli e InstructLab su scala in ambienti cluster distribuiti.
Il lancio di ChatGPT ha generato un enorme interesse attorno all’intelligenza artificiale generativa, accelerando di fatto il ritmo dell’innovazione. Le aziende hanno iniziato a passare dalle prime valutazioni di servizi GenAI alla realizzazione di applicazioni abilitate all’AI. Un sistema di opzioni di modelli aperti in rapida crescita ha stimolato ulteriori innovazioni e ha mostrato come non ci sarà “un modello unico”. Al contrario, i clienti potranno beneficiare di varie alternative per soddisfare esigenze specifiche, che saranno ulteriormente accelerate da un approccio aperto all’innovazione.
Implementare una strategia di intelligenza artificiale non comporta la semplice selezione di un modello. Le aziende tecnologiche devono avere le competenze necessarie per mettere a punto un determinato modello per il loro caso d’uso specifico e affrontare i costi significativi dell’implementazione dell’AI. Alla scarsità di competenze nel campo della scienza dei dati si aggiungono requisiti finanziari sostanziali, tra cui:
- L’acquisto di infrastrutture o il consumo di servizi di intelligenza artificiale
- Il complesso processo di messa a punto dei modelli di AI per specifiche esigenze aziendali
- L’integrazione dell’AI nelle applicazioni aziendali
- La gestione del ciclo di vita delle applicazioni e dei modelli
Per abbassare davvero le barriere all’ingresso dell’innovazione dell’ intelligenza artificiale, le aziende devono essere in grado di ampliare il numero di persone che possono lavorare alle iniziative specifiche e allo stesso tempo tenere sotto controllo i costi. Con gli strumenti di allineamento InstructLab, i modelli Granite e RHEL AI, Red Hat intende applicare i vantaggi dei progetti open source – liberamente accessibili e riutilizzabili, completamente trasparenti e aperti ai contributi – alla GenAI nel tentativo di rimuovere questi ostacoli.
Ashesh Badani, senior vice president e chief product officer, Red Hat
La GenAI rappresenta per le aziende una vera rivoluzione, ma solo se saranno in grado di implementare e utilizzare effettivamente i modelli di AI in modo da soddisfare le proprie specifiche esigenze di business. RHEL AI e il progetto InstructLab, insieme a Red Hat OpenShift AI su scala, sono progettati per ridurre molte delle barriere che ancora oggi ostacolano la GenAI nel cloud ibrido, dalle competenze limitate in materia di scienza dei dati alle risorse necessarie, alimentando l’innovazione sia nelle implementazioni aziendali che nelle community upstream.
Estendere il raggio d’azione dell’intelligenza artificiale con InstructLab
IBM Research ha creato la tecnica Large-scale Alignment for chatBot (LAB), un approccio per l’allineamento dei modelli che utilizza la generazione di dati sintetici guidati da tassonomie e un nuovo framework di messa a punto multifase. Questa tecnica rende lo sviluppo di modelli di intelligenza artificiale più aperto e accessibile a tutti gli utenti, riducendo la dipendenza da costose annotazioni umane e da modelli proprietari. Con il metodo LAB, i modelli possono essere migliorati specificando le competenze e le conoscenze legate a una tassonomia, generando dati sintetici da tali informazioni in scala per influenzare il modello e utilizzare i dati generati per l’addestramento del modello.
Dopo aver constatato che il metodo LAB poteva contribuire a migliorare significativamente le prestazioni dei modelli, IBM e Red Hat hanno deciso di lanciare InstructLab, una comunità open source costruita attorno al metodo LAB e ai modelli open source Granite di IBM. Il progetto InstructLab mira a mettere lo sviluppo di LLM nelle mani degli sviluppatori, rendendo la costruzione e il contributo a un LLM semplice come quella a qualsiasi altro progetto open source.
Come parte del lancio di InstructLab, IBM ha anche rilasciato una famiglia di modelli Granite di codice e in lingua inglese, disponibili sotto licenza Apache con piena trasparenza sui set di dati utilizzati per l’addestramento dei modelli. Il modello di lingua inglese Granite 7B è stato integrato nella comunità InstructLab, dove gli utenti finali possono contribuire con le loro competenze e conoscenze a migliorarlo collettivamente, proprio come farebbero con qualsiasi altro progetto open source. Un supporto simile per i modelli di codice Granite all’interno di InstructLab sarà presto disponibile.
L’innovazione dell’intelligenza artificiale open source su un solido backbone Linux
RHEL AI si basa su questo approccio aperto all’innovazione dell’intelligenza artificiale, incorporando una versione enterprise-ready del progetto InstructLab e dei modelli di codice e linguaggio Granite, combinati con la piattaforma Linux enterprise leader nel mondo per semplificare l’implementazione in un ambiente di infrastruttura ibrida e dando luogo a una piattaforma di base per portare i modelli GenAI con licenza open source in azienda. RHEL AI include:
- Linguaggio e modelli di codice Granite con licenza open source, completamente supportati e indennizzati da Red Hat
- Una distribuzione supportata e con ciclo di vita di InstructLab che fornisce una soluzione scalabile ed economica per migliorare le capacità LLM e rendere accessibili i contributi di conoscenze e competenze a una gamma di utenti molto più ampia
- Istanze ottimizzate di runtime del modello avviabili con modelli Granite e pacchetti di strumenti InstructLab come immagini RHEL, compresi Pytorch, le librerie di runtime e gli acceleratori hardware necessari per NVIDIA, Intel e AMD
- Supporto completo di Red Hat sul ciclo di vita, che inizia con la distribuzione di prodotti affidabili, assistenza in produzione 24 ore su 24, 7 giorni su 7, il supporto esteso al ciclo di vita e l’indennizzo della proprietà intellettuale del modello
Quando le aziende sperimentano e mettono a punto nuovi modelli di intelligenza artificiale su RHEL AI possono scalare questi flussi di lavoro con Red Hat OpenShift AI, che includerà RHEL AI, e possono sfruttare il motore Kubernetes di OpenShift per addestrare e servire i modelli di AI su scala e le funzionalità MLOps integrate di OpenShift AI per gestire il ciclo di vita del modello. OpenShift AI e RHEL AI saranno inoltre integrati con IBM Watsonx, che offre ulteriori funzionalità per lo sviluppo di AI a livello aziendale, la gestione dei dati e la governance.
Il cloud è ibrido. Anche l’intelligenza artificiale lo è
Da oltre 30 anni, le tecnologie open source consentono una rapida innovazione e una notevole riduzione dei costi IT, abbinate a un abbassamento delle barriere all’innovazione. Da quasi altrettanto tempo, Red Hat guida questa tendenza, dalla fornitura di piattaforme enterprise Linux aperte con RHEL nei primi anni 2000 alla spinta a container e Kubernetes come base per open hybrid cloud e cloud-native computing con Red Hat OpenShift.
Questa spinta alimenta le strategie AI/ML attraverso il cloud ibrido aperto, consentendo ai carichi di lavoro AI di essere eseguiti dove risiedono i dati, sia nel data center, sia in più cloud pubblici o ai margini. Oltre ai workload, la visione di Red Hat per l’AI porta l’addestramento e la messa a punto dei modelli su questo stesso percorso per affrontare al meglio le limitazioni legate a sovranità dei dati, conformità e integrità operativa. La coerenza offerta dalle piattaforme Red Hat in tutti questi ambienti, indipendentemente da dove vengono eseguiti, è fondamentale per mantenere l’innovazione dell’AI.
RHEL AI e la comunità InstructLab realizzano questa visione, abbattendo molte delle barriere alla sperimentazione e alla creazione di modelli AI e fornendo gli strumenti, i dati e i concetti necessari per alimentare la prossima ondata di carichi di lavoro intelligenti.
Disponibilità
Red Hat Enterprise Linux AI è ora disponibile come anteprima per gli sviluppatori. Basandosi sull’infrastruttura GPU disponibile su IBM Cloud, utilizzata per addestrare i modelli Granite e supportare InstructLab, IBM Cloud aggiungerà supporto per RHEL AI e OpenShift AI. Questa integrazione consentirà alle aziende di implementare più facilmente l’IA generativa nelle loro applicazioni mission critical.