
Red Hat ha organizzato un incontro con la stampa italiana per illustrare le nuove tecnologie presentate all’evento Red Hat Summit tenuto a Boston il 19 – 22 maggio. Queste tecnologie permettono di democratizzare l’intelligenza artificiale e aprono nuove opportunità per l’innovazione nel cloud ibrido. All’incontro hanno partecipato Rodolfo Falcone, Country Manager, e Giorgio Galli, Senior Manager Solution Architect.
Rodolfo Falcone
Con Red Hat l’intelligenza artificiale è open e compatibile con qualsiasi modello, acceleratore e cloud. Questo lo slogan dell’evento di Boston, che sintetizza l’impegno del brand nello sviluppo di un’AI efficiente, che non richiede necessariamente tutte le risorse hardware ed energetiche tipicamente associate all’intelligenza artificiale. Con l’acquisizione di Neural Magic, società specializzata nello sviluppo di intelligenza artificiale open source leggera, Red Hat punta a offrire una soluzione aperta a qualsiasi tipo di AI, da quella leggera e open ai modelli più conosciuti, come ChatGPT e Gemini. Gestire l’intelligenza artificiale con Red Hat è molto più semplice, più veloce, più stabile e anche molto più sicuro.
Il brand è in prima linea per fornire le tecnologie più richieste dai CEO: dalla data architecture alle soluzioni per l’AI, dagli analytics ai servizi cloud IaaS, PaaS, SaaS. Questo grazie ad Ansible, OpenShift, RHEL, ACS, prodotti potenziati anche con l’intelligenza artificiale. Ancora, Red Hat serve molti suoi clienti con soluzioni moderne di virtualizzazione basate sui container.
A proposito di Linux: RHEL 10
Per quanto riguarda Linux, è stato annunciato Red Hat Enterprise Linux 10 (RHEL 10), il risultato di uno sviluppo iniziato nel 1994 (la prima release di RHEL è del 2002) e che attualmente rappresenta il culmine dell’implementazione dell’intelligenza artificiale, un’integrazione iniziata nel 2019. RHEL 10 è importante perché introduce numerose capacità utili per chi ha poche risorse disponibili, deve gestire le minacce alla sicurezza, e deve accelerare l’adozione del cloud e dell’AI. In sostanza è utile per semplificare la progettazione, in modo che possa essere gestita sia on-prem sia nel cloud.
Red Hat ha inserito l’intelligenza artificiale generativa all’interno delle sue tecnologie, non per governarla ma per far sì che questa possa aiutare chi deve gestire queste tecnologie. Per questo ha introdotto Lightspeed in RHEL 10, un assistente virtuale che permette, anche a chi non ha competenze approfondite, di avere indicazioni utili per gestire un sistema aziendale complesso.
Con Image Mode il marchio ha reso disponibile una nuova modalità basata su container per gestire il sistema operativo, la stessa modalità usata per rilasciare le applicazioni nel cloud. Questo è un vantaggio dal punto di vista delle operation, perché adesso si usa un solo metodo per rilasciare le applicazioni e il sistema operativo.
RHEL 10 è il primo sistema operativo Linux capace di resistere agli attacchi dei cyber criminali che usano il quantum computing. Questo grazie all’impiego di sistemi interni di crittografia non facilmente decodificabili con tecniche di calcolo quantistico.
Il marchio ha rilasciato anche sistemi operativi ottimizzati da utilizzare con gli hyperscaler AWS, Google Cloud e Azure, e che si integrano con i loro servizi IaaS (Infrastructure as a Service). È poi possibile esplorare nuove architetture sulla piattaforma RISC-V, grazie alla collaborazione con SiFive.
L’intelligenza artificiale
L’AI è stato il tema dominante al summit di Boston. Una tecnologia, quella dell’intelligenza artificiale, sviluppata da Red Hat per essere usata in modalità ibrida, quindi sia on-prem sia nel cloud. Questo vale anche per i modelli LLM, così da ottimizzare l’utilizzo delle risorse e ridurre il più possibile l’uso delle GPU dell’azienda o del data center.
Questo è stato fatto estendendo due componenti della piattaforma Red Hat: RHEL AI e OpenShift AI. Con il primo, che include modelli e tecnologie per fare intelligenza artificiale generativa con una singola macchina, è possibile iniziare subito a lavorare, dato che il brand fornisce il modello, il sistema operativo che sfrutta le GPU, le tecnologie sia per creare chatbot sia per agganciare l’applicazione del cliente e fare inferenza.
Giorgio Galli
Nel caso sia necessario scalare (aumentare il numero di modelli e di macchine), si passa a OpenShift AI, che usa i container e non solo consente di gestire più modelli ma permette anche di seguire il loro ciclo di sviluppo. È importante notare che OpenShift AI sfrutta tutti gli acceleratori oggi disponibili sul mercato, sia che il cliente scelga di appoggiarsi agli hyperscaler sia che preferisca fare tutto on-prem, con una sua infrastruttura. A tutto questo, Red Hat ha aggiunto AI Inference Server, un nuovo modo più efficiente per eseguire un modello. In pratica riduce l’uso delle GPU al minimo necessario, ricorrendo a cache e strategie di ottimizzazione quando l’interazione tra il modello e l’utente è molto basilare e richiede risposte molto semplici. La tecnologia di base è vLLM, un progetto open source sviluppato principalmente da Neural Magic (azienda acquisita di recente da Red Hat) insieme con Google, Meta, Nvidia e altri.
In pratica, vLLM impiega un motore che comprime e semplifica il modello, mantenendo la stessa accuratezza delle risposte. Sempre vLLM rende il modello agnostico per quanto riguarda l’infrastruttura sottostante, così può funzionare con qualsiasi acceleratore. Secondo test eseguiti da Red Hat, con questo sistema si mantiene il 97% dell’accuratezza delle risposte, ma usando solo il 50% delle GPU. AI Inference Server è incluso in RHEL AI e in OpenShift AI.
Nel portale Hugging Face, Red Hat ha messo a disposizione numerosi modelli già compressi con vLLM, ottimizzati, validati e pronti da usare. Inoltre il marchio ha in corso iniziative con Meta, Google e AMD per definire un’architettura di riferimento per l’intelligenza artificiale, architettura che include tecnologie per orchestrare i modelli e per ottimizzare e distribuire il carico.
La virtualizzazione
Nel prossimo futuro la virtualizzazione sarà sempre più diffusa e Red Hat è pronta con la sua piattaforma che già adesso la supporta insieme ai container. Per il marchio la virtualizzazione non è una novità: ha implementato tecnologie su cui lavora da tempo, inserendole nella sua piattaforma OpenShift, così da gestire le macchine virtuali all’interno dei container.
Quest’anno il marchio ha presentato OpenShift Virtualization Engine, un subset della piattaforma utile per i clienti che vogliono fare uno spostamento da un ambiente virtuale esistente a un nuovo ambiente virtuale in un container. Red Hat sta investendo molto nella virtualizzazione, disponibile non solo on-prem ma anche nel cloud (AWS, Azure, Google, IBM, Oracle). Così il cliente è libero di scegliere sia dove mettere le sue applicazioni sia quale architettura adottare, virtualizzazione compresa.
L’automazione IT, il supporto per gli sviluppatori e l’automotive
Anche l’automazione IT è importante per Red Hat, perché in un mondo in cui i tecnici esperti sono sempre in numero insufficiente, i reparti IT devono fare di più con meno, quindi rendere automatico il maggior numero di task. Questo è possibile con Ansible Automation Platform, che adesso include l’intelligenza artificiale generativa, così gli utenti che non possiedono le competenze degli sviluppatori possono creare automatismi in maniera molto semplice, usando il linguaggio naturale. L’AI di Red Hat può anche analizzare il codice e descrivere cosa fa, e individuare le soluzioni più adatte per risolvere i problemi legati all’automazione.
Per quanto riguarda gli sviluppatori, il brand ha rilasciato l’Advanced Developer Suite, che tra le altre cose include Trusted Profile Analyzer, per creare l’elenco dei moduli inclusi in un prodotto software, un elenco conforme alle normative NIS2 che diventeranno legge nel 2026.
Infine, Red Hat sta seguendo un progetto open source per sviluppare un sistema operativo per le automobili, In-Vehicle Operating OS 1.0, che dovrebbe essere rilasciato nel terzo trimestre di quest’anno. Si tratta del primo prodotto Linux certificato con funzioni di sicurezza per applicazioni di guida autonoma.