Come è fatto un supercomputer? Il tour AMD spiega l’HPC Hawk

Hawk è composto da più di 5.600 nodi di calcolo, per un totale di oltre 720.000 core AMD EPYC di seconda generazione.

Come è fatto un supercomputer

AMD ha reso disponibile un tour virtuale a 360° del supercomputer top di gamma “Hawk presso l’HPC Center Stuttgart dell’Università di Stoccarda, Germania.

Il sistema, recentemente inaugurato, è tra i supercomputer più veloci al mondo nonché il più veloce sistema general-purpose per l’informatica scientifica e industriale in Europa.

Il tour virtuale offre la rara opportunità di osservare dall’interno un’impressionante conquista tecnica nel supercalcolo europeo. “Muovendosi” nell’ambiente virtuale e tra i rack, sarà possibile trovare link per accedere a maggiori dettagli sul supercomputer.

Come è fatto un supercomputer?

Come è fatto un supercomputer
Clicca l’immagine per avviare il tour del supercomputer.

 

Il tour include anche un commento del Dr. Bastian Koller, amministratore delegato di HLRS, che spiega come funziona il sistema e le sue applicazioni.

Come visto nel tour, il sistema Hawk è composto da 44 rack forniti da oltre 5.600 nodi di calcolo, per un totale di oltre 720.000 core di calcolo di processori AMD EPYC di seconda generazione.

Hawk, un sistema Apollo di HPE, è progettato per far progredire le applicazioni nei settori dell’energia, del clima, della mobilità e della salute. L’architettura vanta performance di picco di circa 26 petaflop (26 quadrilioni di operazioni in virgola mobile al secondo).

Come è fatto un supercomputer

Come è fatto un supercomputer? Il calcolo petaflop consente una modellazione molto più accurata di sistemi complessi. Per eguagliare ciò che un sistema di computer con 1 petaflop può fare in un solo secondo, si dovrebbe eseguire un calcolo ogni secondo per 31.688.765 anni.

Hawk permette a scienziati e ingegneri di condurre ricerche su fenomeni più grandi e complessi. La piattaforma supporta flussi di lavoro ad alta intensità di dati che combinano intelligenza artificiale, analisi di big data, deep learning e simulazione.