E4 Computer Engineering: AI e HPC rimodellano il business

AMD, Intel e Nvidia hanno affiancato E4 Computer Engineering nell'illustrare il ruolo attuale di intelligenza artificiale e high performance computing per il business.

Eni HPC5, simulazioni e calcoli complessi per l’energia di domani

Organizzato da E4 Computer Engineering, l’evento AI & HPC: Reshaping the Business Landscape, ha esplorato le intersezioni tra Intelligenza Artificiale (AI) e High Performance Computing (HPC), evidenziando come queste tecnologie stiano convergendo in un unico ecosistema. Il 92% delle aziende è oggi focalizzato sul futuro dell’AI, del machine learning e dell’HPC, non considerandole più entità separate. Secondo un rapporto di Intersect360 Research, circa il 70% delle organizzazioni ritiene che queste tecnologie si stiano integrando sempre di più, fornendo nuove opportunità di innovazione e sviluppo.

La visione di E4 Computer Engineering

digital transformation server

Cosimo Damiano Gianfreda, CEO di E4 Computer Engineering, ha delineato le parole chiave per il futuro delle tecnologie XPCAE (Extended Parallel Computing and Artificial Environments): competitività, produttività e creatività. “Questi concetti formano le basi su cui le aziende devono investire per promuovere crescita e innovazione”. Gianfreda ha sottolineato il ruolo cruciale di team composti da scienziati e tecnici altamente qualificati, che permettono a tecnologie come HTCE (High-Throughput Computing Environment) e AI di generare risultati straordinari. Un esempio del contributo di E4 è lo sviluppo di un supercomputer per l’Istituto Italiano di Tecnologia, un’infrastruttura essenziale per gestire complessi codici scientifici. Altri progetti includono l’installazione e la gestione di supercomputer al Tecnopolo di Bologna e a Napoli, che rientrano tra i più potenti al mondo. In questo contesto, E4 ha affrontato sfide tecniche significative, come la gestione del raffreddamento ad alta efficienza, utilizzando soluzioni innovative.

La complessità dell’ecosistema dati e l’importanza di strumenti specifici

ai generativa

Mario Rosati, CEO di E4 Analytics, ha enfatizzato la complessità del panorama attuale legato ai dati e all’analisi. Secondo Rosati, ogni fase del processo, dalla gestione dei dati alla messa in produzione dei modelli AI, richiede strumenti altamente specifici e un’integrazione efficiente per garantire il raggiungimento degli obiettivi strategici delle organizzazioni. “Le piattaforme e i framework disponibili rappresentano una risorsa preziosa – ha affermato Rosati –, ma possono anche aumentare la complessità di gestione. Il nostro obiettivo è rispondere a queste sfide, consapevoli che le AI generative possono risultare strumenti estremamente utili, ma anche frutto di componenti complesse da implementare in produzione”.

edge computing

Rosati ha sottolineato come Ice4HTC, una soluzione per cluster HPC basata su Jupyter Notebook, faciliti l’interazione degli esperti di AI con potenti infrastrutture HPC, migliorando la produttività in ambienti familiari.

Abbiamo anche sviluppato una piattaforma specifica per l’AI denominata Urania – ha proseguito Rosati –. Si tratta di una piattaforma nativa cloud progettata per lo sviluppo e la produzione, dedicata ai rivolta i professionisti dell’Artificial Intelligence e della Data Analysis. Questa soluzione è stata concepita per fornire un ambiente di lavoro completo e integrato per gestire l’intero ciclo di vita dei progetti AI”. Attraverso Urania, data scientist e machine learning engineer possono concepire, sviluppare e mettere in produzione i loro modelli di intelligenza artificiale per soddisfare le esigenze dei loro clienti interni.

L’evoluzione delle fabbriche di AI e il ruolo delle GPU

NVIDIA DGX

Rod Evans, Vice Presidente di Supercomputing e AI di Nvidia, si è focalizzato sul concetto di fabbriche di AI che sta ora prendendo piede, evolvendosi dal precedente concetto di fabbriche di software. “Contrariamente a quanto previsto l’AI non ha eliminato la necessità di programmatori, ma ha invece incrementato la loro produttività – ha sostenuto Evans –. I programmatori possono delegare compiti ripetitivi a modelli come ChatGPT e concentrarsi su attività più complesse e interessanti. Le fabbriche di AI sono diventate infrastrutture critiche per i governi e per la crescita economica. Evans ha menzionato l’importanza dei centri nazionali di calcolo avanzato in paesi come Cina e Italia, che aiutano le startup a testare e scalare il loro codice su GPU ad alte prestazioni”.

Un concetto emergente è quello dei gemelli digitali, ovvero rappresentazioni virtuali di ambienti reali, utilizzate in settori come logistica e manifattura per ottimizzare processi prima della loro implementazione fisica. Questo approccio aumenta l’efficienza e la precisione operativa. Evans prevede che, tra il 2024 e il 2025, molte aziende inizieranno a integrare AI nei loro prodotti, generando un cambiamento significativo.

Secondo Evans, le principali aree di sviluppo dell’AI includono la creazione di chatbot intelligenti, l’utilizzo dell’AI per lo sviluppo di codice e l’automazione delle applicazioni aziendali. Un sondaggio recente ha rivelato che il 68% dei progetti AI sarà probabilmente sviluppato internamente, anziché nel cloud, poiché le aziende sono sempre più preoccupate di perdere il controllo sui propri dati. Questo porta a una crescente domanda per servizi di colocation locali, specialmente perché i data center tradizionali non sono attrezzati per supportare i requisiti energetici dei nuovi sistemi AI, che possono arrivare a richiedere fino a 100 kilowatt per rack.

NVIDIA sta affrontando queste sfide con soluzioni innovative come NVIDIA inference microservices, modelli AI pre-addestrati altamente efficienti, e la nuova GPU Blackwell, progettata per gestire modelli AI con trilioni di parametri. La nuova interconnessione NVLink permette di collegare fino a 72 GPU in un unico sistema con memoria condivisa, rendendolo ideale per carichi di lavoro di inferenza su larga scala.

Intel: strategie per l’HPC del futuro

Claudio Bellini, HPC Account Executive di Intel, ha spiegato che “oltre il 60% dei sistemi presenti nella lista dei top 500 supercomputer mondiali utilizza architetture ibride, con una crescente prevalenza di GPU. Il sistema europeo Aurora, per esempio, utilizza un’architettura interamente basata su GPU, integrata con CPU Xeon e memorie HBM, con prestazioni che superano il mezzo exaflop. Intel sta investendo in soluzioni che migliorano l’efficienza energetica e la performance, con un focus su tecnologie integrate e acceleratori specifici come il Gaudi 3”.

Bellini ha discusso anche delle sfide legate alla scalabilità e al consumo energetico dei sistemi HPC. Il raggiungimento dello ZFLOP, il prossimo grande traguardo nel calcolo, richiederà innovazioni significative in termini di efficienza energetica. Attualmente, i supercomputer consumano tra i 20 e i 40 megawatt, e l’incremento necessario per raggiungere uno ZFLOP comporterebbe consumi paragonabili a quelli di intere città. Intel ha già avviato lo sviluppo di soluzioni per migliorare la portabilità del codice attraverso piattaforme come oneAPI, che permettono di ottimizzare il software per diverse architetture hardware.

I tre pilatri di AMD

AMD, rappresentata dal Sales Executive Luca Catalano, ha descritto la sua strategia basata su tre pilastri: miglioramento delle performance-per-watt, adattamento delle tecnologie alle esigenze specifiche dei workload e sviluppo di un ecosistema software robusto, con soluzioni come ROCm.

Il primo aspetto critico – ha spiegato Catalano – riguarda il rapporto performance-per-watt, una delle problematiche più urgenti. I dati relativi ai top 500 supercomputer e le esigenze specifiche dei clienti indicano che stiamo raggiungendo i limiti in termini di capacità di raffreddamento e consumo energetico. Per questo motivo, uno dei pilastri della strategia di AMD è l’ottimizzazione delle prestazioni senza aumentare in maniera sproporzionata il consumo energetico”.

Un altro elemento fondamentale, secondo Catalano, è la gestione dei workload. “Non esiste più una tecnologia general purpose che copra tutte le necessità; pertanto, è essenziale adattare sia l’hardware sia il software alle esigenze specifiche dei workload. Nel campo dell’AI, per esempio, distinguiamo tra le necessità di inferenza e training, che richiedono approcci differenziati. Nell’ambito dell’HPC, alcuni clienti privilegiano il calcolo FP64, mentre altri no. AMD risponde a queste esigenze attraverso un portafoglio di soluzioni che comprende CPU, GPU e APU, ognuna delle quali ottimizzata per specifici casi d’uso, cercando il miglior compromesso in ogni scenario applicativo”.

inferenza

Sul fronte dell’hardware, AMD ha sviluppato soluzioni avanzate, integrando alte prestazioni sia nel computing tradizionale (CPU) sia nell’accelerazione grafica (GPU). Questo approccio consente lo sviluppo di APU, chip che combinano capacità computazionali e grafiche in un’unica architettura.

Infine, anche il software rappresenta un pilastro fondamentale della strategia AMD. “Disporre di hardware avanzato non è sufficiente senza un software capace di sfruttarlo appieno e di rispondere in maniera dinamica alle esigenze del mercato in continua evoluzione”, ha spiegato Catalano. Il terzo pilastro della strategia di AMD è infatti il suo ecosistema software ROCm (Radeon Open Compute), che include librerie, compiler e strumenti di sviluppo, permettendo agli utenti di ottimizzare le loro applicazioni, sia nel contesto HPC sia AI o in altri ambiti emergenti. Questo ecosistema è ciò che garantisce alle tecnologie AMD di avere un impatto tangibile e sostenibile sul mercato. AMD ha sviluppato soluzioni che integrano calcolo generale e accelerazione grafica in prodotti come le APU, offrendo prestazioni ottimizzate per una varietà di applicazioni, inclusi HPC e AI.

Sicurezza e controllo dati nell’era dell’AI generativa

Nonostante la rapida adozione dell’intelligenza artificiale generativa, l’80% delle aziende non ha ancora sviluppato una strategia chiara per il suo utilizzo, secondo un’analisi condotta dalla Digital Data Corporation (DDC). “Questa mancanza di linee guida – ha dichiarato Erion Islamay, ML Engineer presso E4 Analyticsporta spesso a un uso non autorizzato dell’AI da parte dei dipendenti, esponendo le aziende a rischi significativi legati alla sicurezza e alla protezione dei dati sensibili“.

Secondo Islamay, oltre alle criticità legate alla sicurezza, emergono ulteriori preoccupazioni riguardanti l’uso di modelli generativi ospitati su infrastrutture cloud. Affidarsi a fornitori esterni per l’esecuzione di AI incrementa la superficie d’attacco e i dati elaborati possono attraversare diverse giurisdizioni, complicando la conformità normativa e la sicurezza. Inoltre, questa dipendenza dai fornitori può esporre le aziende a costi crescenti. “I costi operativi sono destinati a salire – ha continuato Islamay –. Le attuali soluzioni si basano su chatbot monolitici in grado di rispondere a singole richieste, ma il futuro sarà dominato da catene di modelli che eseguiranno task più complessi e autonomi”.

Una soluzione emergente che concilia controllo e autonomia è il concetto di Private AI, sostenuto da vari attori nel settore. Oltre alle piattaforme chiuse come ChatGPT, modelli open source, come quelli sviluppati da Meta, offrono una valida alternativa. “Molte aziende – ha precisato Islamay – stanno cercando di diventare il Linux della generazione AI, offrendo modelli aperti e personalizzabili”. E4, per esempio, utilizza modelli pre-addestrati come LLaMA, personalizzandoli per esigenze specifiche, insegnando loro contesti aziendali o settoriali.

Due sono le tecniche principali impiegate per questo processo: retrieval-augmented generation (RAG) e fine-tuning. Con la prima, il sistema estrae informazioni rilevanti dalle fonti di dati aziendali in risposta a una query e le utilizza come input per il modello AI, migliorando la precisione delle risposte. La seconda tecnica, il fine-tuning, modifica direttamente i parametri del modello per integrare conoscenze specifiche dell’azienda.

Secondo Islamay, i benefici di questo approccio sono tre: i dati aziendali non lasciano l’infrastruttura interna, migliorando la sicurezza; il controllo rimane completamente nelle mani dell’azienda; e infine, l’AI diventa parte integrante dell’infrastruttura e della proprietà intellettuale dell’azienda, riducendo la dipendenza da fornitori esterni come OpenAI.

Gaia, l’alternativa sicura e altamente personalizzabile a ChatGPT

Con l’introduzione di Gaia, una soluzione AI privata sviluppata da E4 Computer Engineering, l’azienda propone un’alternativa sicura e altamente personalizzabile a servizi come ChatGPT. Gaia è costruita su un’infrastruttura hardware ottimizzata per l’uso intensivo di GPU e supportata da microservizi che facilitano l’inferenza AI.

Con Gaia 4.3, E4 sta esplorando tecnologie avanzate come il graph-based reasoning e l’integrazione di agenti AI. Il sistema di knowledge graph consente di estrarre entità e relazioni da documenti complessi, creando grafi concettuali che facilitano analisi e sintesi. A differenza dei sistemi tradizionali, i knowledge graph forniscono una visione globale del contenuto, permettendo ricerche più accurate. Islamay ha sottolineato l’importanza dei vision models, capaci di analizzare non solo il testo, ma anche immagini e contenuti visivi come PDF e presentazioni, integrandoli come vettori all’interno del modello AI.

Infine, all’evento di e4 Computer engineering Islamay ha evidenziato il potenziale futuro degli agenti AI, modelli autonomi in grado di gestire task specifici. Questi modelli possono lavorare in parallelo, correggendosi e coordinandosi, creando team di agenti in grado di generare output di alta qualità, come la sintesi di documenti complessi o la suddivisione in riassunti granulari, revisionati da un agente principale.

L’Integrazione tra AI e quantum computing

Ci troviamo attualmente nel contesto dell’era NISQ (Noisy Intermediate-Scale Quantum)”. Lo ha affermato Matteo Barbieri, Quantum Developer presso E4 Computer Engineering, che ha precisato: “Questa fase è caratterizzata da dispositivi quantistici di medie dimensioni, nei quali il rumore quantistico rappresenta ancora una limitazione significativa. Tuttavia, tali dispositivi costituiscono un passo cruciale verso il fault-tolerant quantum computing, un paradigma in cui l’implementazione di algoritmi di correzione degli errori sarà completa. Questo scenario porterà al cosiddetto quantum advantage, ovvero la capacità di risolvere problemi intrattabili per i sistemi di calcolo classici”. I campi di applicazione più rilevanti includono la crittografia quantistica, la risoluzione di problemi di ottimizzazione e le simulazioni quantistiche, con impatti significativi in fisica teorica, chimica computazionale e intelligenza artificiale avanzata.

Il nostro approccio tecnologico si fonda su tre direttrici principali – ha spiegato Barbieri –. Il primo pilastro è lo sviluppo e l’ottimizzazione di algoritmi quantistici nativi. La progettazione di tali algoritmi richiede competenze avanzate in calcolo quantistico, data la sostanziale differenza rispetto all’implementazione di algoritmi classici. In questo ambito, dedichiamo particolare attenzione alla portabilità del codice e all’impiego di emulatori quantistici avanzati, sviluppati internamente da E4”.

In secondo luogo, sfruttando l’expertise nel settore dell’High-Performance Computing (HPC), E4 lavora attivamente all’integrazione tra infrastrutture HPC e piattaforme di calcolo quantistico, creando sinergie che accelerano l’evoluzione del quantum computing.

Il terzo degli aspetti centrali della strategia di E4 è la manutenzione e lo sviluppo continuo degli emulatori quantistici, con l’obiettivo di renderli non solo performanti, ma anche pronti per la commercializzazione su larga scala.

E4 si sta concentrando sull’integrazione tra HPC e quantum computing, sviluppando emulatori quantistici per testare algoritmi specifici. Daniele Gregori, CISO di E4 Computer Engineering, ha indicato che il “il momento in cui i computer quantistici supereranno quelli classici potrebbe essere raggiunto entro i prossimi 4-5 anni”.