Fujitsu Primergy M7, trasformazione digitale sostenibile

Sistemi con più efficienza energetica per una trasformazione digitale sostenibile più rapida.

fujitsu primergy

Server Fujitsu Primergy M7: dotati di una capacità di calcolo adatta per rendere più rapidi e convenienti i programmi di trasformazione digitale sostenibile.

Grazie ai migliori livelli di prestazioni ed efficienza energetica della loro classe, i sistemi Fujitsu Primergy M7, dotati di tecnologia Intel Xeon Scalable Processor Platform di quarta generazione. offrono la semplicità e il profilo di costo necessari per i backbone operativi.

Hardware e ambiente per i test

A dimostrazione della loro flessibilità, Fujitsu adotterà immediatamente i server M7 nel proprio AI Test Drive facility, parte della Fujitsu DX Innovation Platform. Il tutto è reso accessibile in Italia da FINIX Technology Solutions, che commercializza in esclusiva le soluzioni dell’offerta Fujitsu. L’AI Test Drive aiuta i professionisti a mettere alla prova i business case per le applicazioni AI, superando così il principale ostacolo che i data scientist si trovano spesso ad affrontare. Ovvero trovare hardware e ambiente necessari per eseguire dei test, prima di affrontare investimenti onerosi.

fujitsu primergy

Trasformazione digitale sostenibile più rapida

L’ambiente di test, che è utilizzabile gratuitamente, mette a disposizione un pacchetto completo di capacità di calcolo, compreso il rack server top di gamma a 8 socket Fujitsu Primergy RX8770 M7. Il pacchetto comprende connettività di rete, ottimizzazione mediante tool open source e supporto, tutto ciò che occorre per valutare la fattibilità del business case di un progetto basato su AI.

Le attività di deep learning

Il nuovo portfolio di server Fujitsu Primergy M7 propone una scelta di CPU Intel e il più ricercato e specializzato approccio alle GPU (Graphics Processing Unit) utilizzato nella AI. I server M7 aprono la strada alle attività AI basate su CPU, grazie a innovazioni come la distribuzione Intel di OpenVINO Toolkit. Una soluzione che semplifica il deployment dell’inferenza associata al deep learning per centinaia di modelli preaddestrati. Il risultato è che le CPU e le librerie software che se ne avvalgono si sono evolute, diventando notevolmente più abili nelle attività di deep learning. I sistemi basati su CPU si rivelano inoltre più semplici e robust. Come negli ambienti edge, dove i ridotti requisiti di alimentazione sono i più adatti.