L’innovazione dell’intelligenza artificiale di Dell Technologies

I server Dell PowerEdge XE9785 e XE9785L supporteranno le GPU AMD MI350 con 288GB di memoria HBM3e ciascuna.

intelligenza artificiale

I progressi della Dell AI Factory semplificano e velocizzano le implementazioni di intelligenza artificiale per organizzazioni di qualsiasi dimensione.

Dell Technologies annuncia gli avanzamenti alla Dell AI Factory, tra cui un’infrastruttura per l’intelligenza artificiale potente ed efficiente dal punto di vista energetico, soluzioni integrate con partner tecnologici e servizi professionali per semplificare e accelerare le implementazioni di AI.
L’AI è ormai essenziale per le aziende con il 75% delle organizzazioni che considera l’intelligenza artificiale fondamentale per la propria strategia e il 65% che riesce a portare con successo i propri progetti di AI in produzione. Restano sfide quali la qualità dei dati, i problemi di sicurezza e i costi elevati che possono rallentarne gli avanzamenti.

Dell AI Factory

L’approccio Dell AI Factory può risultare fino al 62% più conveniente per l’inferenza di LLM on-premises rispetto al cloud pubblico e supporta le organizzazioni a implementare facilmente e in modo sicuro workload AI su qualsiasi scala. Dell offre il portfolio di intelligenza artificiale più completo del settore. Progettato per implementazioni su dispositivi client, data center, postazioni edge e cloud. Più di 3.000 clienti a livello mondiale in diversi mercati stanno accelerando le loro iniziative di AI grazie alla Dell AI Factory.

I progressi dell’infrastruttura Dell aiutano le organizzazioni a implementare e gestire l’intelligenza artificiale su qualsiasi scala.
Dell presenta un’infrastruttura AI end-to-end per supportare qualsiasi aspetto, dall’inferenza edge su PC AI alla gestione di enormi workload AI nel data center.
La workstation Dell Pro Max Plus offre la prima NPU separata di livello enterprise del settore in un fattore di forma mobile

Dell Pro Max Plus

Il Dell Pro Max Plus che integra la scheda di inferenza Qualcomm AI 100 PC è la prima workstation mobile al mondo con una NPU discreta di livello enterprise. Offre un’inferenza veloce e sicura sul dispositivo per i modelli di AI di grandi dimensioni, fino a modelli da 109 miliardi di parametri, solitamente eseguiti in cloud.
La scheda di inferenza Qualcomm AI 100 PC è dotata di 32 core AI e 64 GB di memoria. Per soddisfare le esigenze degli ingegneri AI e dei data scientist che implementano modelli di grandi dimensioni per l’inferenza edge.
Dell ridefinisce il raffreddamento dell’AI con innovazioni che riducono i costi di raffreddamento fino al 60%.

Dell PowerCool Enclosed Rear Door Heat Exchanger (eRDHx)

Il primo del settore, è un’alternativa ai tradizionali scambiatori di calore posteriori. Progettato per catturare il 100% del calore IT generato con un sistema di flusso d’aria autonomo, l’eRDHx può ridurre i costi energetici per il raffreddamento fino al 60% rispetto alle soluzioni attualmente disponibili.

Con i rack IR7000 Dell integrati e dotati della tecnologia eRDHx, le aziende possono:

  • Ridurre significativamente i costi operativi, eliminando la necessità di costosi sistemi di raffreddamento, dato che l’eRDHx funziona con temperature dell’acqua più alte rispetto alle soluzioni tradizionali (tra 32 e 36 gradi Celsius).
  • Massimizzare la capacità del data center installando fino al 16% in più di rack di elaborazione, senza aumentare i consumi energetici.
  • Ottimizzare il raffreddamento dell’aria fino a 80 kW per rack, ideale per implementazioni di AI e HPC.
  • Minimizzare i rischi con tecnologie avanzate di rilevamento delle perdite, monitoraggio termico in tempo reale e gestione unificata di tutti i componenti a livello di rack attraverso il Dell Integrated Rack Controller.

I server Dell PowerEdge con GPU AMD massimizzano le prestazioni e l’efficienza

I server Dell PowerEdge XE9785 e XE9785L supporteranno le GPU AMD MI350 con 288GB di memoria HBM3e ciascuna. Questi server garantiscono prestazioni di inferenza fino a 35 volte superiori. Disponibili in configurazioni con raffreddamento a liquido e ad aria, i server aiutano a ridurre i costi energetici di raffreddamento delle strutture. Mantenendo efficienza operativa

Innovazioni nell’AI per implementazioni efficienti e sicure

L’intelligenza artificiale è tanto potente quanto i dati che la alimentano. Ne consegue che le organizzazioni necessitano di una piattaforma progettata per garantire prestazioni e scalabilità. Gli aggiornamenti alla Dell AI Data Platform migliorano l’accesso a dati strutturati, semi-strutturati e non strutturati di alta qualità.

  • Dell Project Lightning è il file system parallelo più veloce al mondo che offre velocità di throughput fino a due volte superiore rispetto ai file system paralleli della competition. Project Lightning accelera i tempi di training per i flussi di lavoro complessi e su larga scala.
  • I miglioramenti di Dell Data Lakehouse semplificano i flussi di lavoro dell’AI e velocizzano gli use case, come motori di raccomandazione, ricerche semantiche e il rilevamento dell’ “intento degli utenti”, creando data set ottimizzati per l’AI già pronti per l’analisi.

Con ulteriori avanzamenti, le organizzazioni possono:

  • Ridurre il consumo energetico e la latenza, aumentare i risparmi sui costi per l’high performance computing (HPC) e AI con Dell Linear Pluggable Optics.
  • Accrescere la fiducia nella sicurezza dell’infrastruttura e delle soluzioni di AI con Dell AI Security and Resilience Services, che forniscono una protezione completa dell’infrastruttura, dei dati, delle applicazioni e dei modelli di AI.

Dell amplia l’ecosistema dei partner AI con soluzioni e applicazioni AI personalizzabili

Dell collabora con i principali player dell’ecosistema AI per offrire soluzioni personalizzate che si integrano in modo semplice e rapido negli ambienti IT esistenti.

Le organizzazioni possono:

  • Attivare flussi di lavoro intelligenti e autonomi con un’implementazione on-premises, prima nel suo genere, di Cohere North, che integra diverse fonti di dati garantendo il controllo delle operations.
  • Innovare dove ci sono i dati con Google Gemini e Google Distributed Cloud on-premises disponibili sui server Dell PowerEdge XE9680 e XE9780.
  • Creare applicazioni di agentic AI con Dell AI Solutions con Llama, utilizzando l’ultima distribuzione Llama Stack e i modelli Llama 4 di Meta.
  • Utilizzare in modo sicuro gli agenti AI scalabili e l’enterprise research on-premises con Glean. La collaborazione tra Dell e Glean fornirà la prima architettura di distribuzione on-premises per la piattaforma Work AI di Glean.
  • Creare e distribuire applicazioni AI sicure e personalizzabili e flussi di lavoro di knowledge management con le soluzioni progettate da Dell e Mistral AI.

Dell AI Factory si espande anche per includere:

  • Gli avanzamenti della Dell AI Platform con AMD. Che aggiungono 200G di rete di storage e uno stack software aperto AMD ROCm aggiornato. Questo consente alle organizzazioni di semplificare i flussi di lavoro, supportare gli LLM e gestire in modo efficiente i workload complessi. Dell e AMD collaborano per fornire il supporto Day 0 e container ottimizzati per le prestazioni dei modelli AI come Llama 4.
  • La nuova Dell AI Platform con Intel. Che aiuta le imprese a implementare un’infrastruttura AI scalabile e ad alte prestazioni con gli acceleratori Intel Gaudi 3 AI.

Dell annuncia anche gli avanzamenti della Dell AI Factory con NVIDIA e upgrade di Dell NativeEdge per supportare le implementazioni di intelligenza artificiale e l’inferenza sull’edge.