Rick Koopman, EMEA Technical Leader HPC di Lenovo, spiega le grandi opportunità e le sfide che attendono l’High Performance Computing di oggi e di domani.
Andando a ritroso nella storia, troviamo testimonianza di numerose corse verso importanti avanzamenti in campo scientifico, molti dei quali hanno avuto un grande effetto sull’umanità.
Ad esempio, nel 1714 il governo britannico offrì 20.000 sterline, una cifra enorme per l’epoca, a chi portasse progressi nel calcolo della longitudine. Questo portò allo sviluppo del cronometro marino e a miglioramenti nei calcoli delle fasi lunari, portando a grandi innovazioni nella sicurezza della navigazione marittima.
In tempi più recenti, per tutti gli anni ’60 del secolo scorso gli Stati Uniti e l’Unione Sovietica diedero vita a una corsa allo spazio, partendo dal lancio del primo satellite in orbita terrestre allo sbarco dei primi uomini sulla Luna. Con lo sbarco su Marte nel mirino, la corsa allo spazio continua a tutt’oggi.
Chi opera nel campo dell’High Performance Computing (HPC), di contro, sa che oggi gli investimenti pubblici e i gruppi di ricerca sono attualmente impegnati nella corsa all’exascale computing.
L’exascale consiste nel raggiungere l’obiettivo del miliardo di miliardi (1018) di calcoli al secondo, un incremento di mille volte rispetto al primo computer petascale. Una macchina exascale avrebbe all’incirca la capacità di elaborazione del cervello umano e arriverebbe potenzialmente a supportare avanzamenti nell’AI quali le reti neurali.
Queste capacità tecniche sono sbalorditive e in effetti, l’HPC è talmente importante che sta già affrontando le più importanti problematiche del mondo attuale, che sono già al di là del potenziale dei computer tradizionali.
Tenendo conto di queste premesse, andiamo ad analizzare come le capacità dell’HPC aiutano ad affrontare tre delle più importanti sfide globali del nostro tempo, oltre a quelle che si potranno presentare con lo svilupparsi della tecnologia.
I dati per affrontare il cambiamento climatico
Il cambiamento climatico è una delle più grandi sfide che ci ritroviamo ad affrontare, ha conseguenze ben più profonde che non estati più calde e umide. Che si tratti di siccità o di uragani, gli eventi climatici estremi sono oggi molto più comuni e poterli prevedere diventa questione di vita o di morte.
Rimane il fatto che il meteo è notoriamente difficile da prevedere e che l’accuratezza della previsione dipende sia dalla capacità di elaborazione sia dal volume di dati disponibili.
Vestas, un’azienda all’avanguardia nel settore dell’energia eolica sta già raccogliendo un’enorme quantità di dati, dalla pressione atmosferica alla velocità del vento, per calcolare la dislocazione più efficace delle proprie turbine eoliche.
Un cluster di HPC è in uso per elaborare e visualizzare tali dati grazie alle funzionalità della GPU associata. Applicando l’analisi dei big data e il machine learning ai dati meteorologici, Vestas ha creato un modello predittivo molto più dinamico, che addirittura rispecchia i livelli di accuratezza di enti pubblici quali l’ufficio meteorologico del Regno Unito.
Oggi, l’azienda ha al suo interno nuove risorse e – naturalmente – un nuovo mezzo per combattere il cambiamento climatico.
In tutto il mondo, con il raggiungimento di potenze di calcolo sempre maggiori, sarà possibile migliorare la capillarità delle previsioni metereologiche. Con il calcolo petascale siamo in grado prevedere eventi climatici, ad esempio nella città di Manchester; passando all’exascale potremo arrivare al livello di dettaglio della singola via cittadina.
In breve, l’HPC sarà uno strumento vitale che ci consentirà di convivere con il cambiamento climatico nei prossimi anni.
Migliorare le diagnosi e le terapie mediche, dalle malattie della retina alla cura del cancro
La speranza di vita continua a crescere e di conseguenza le richieste mediche diventano più complesse, mettendo sotto pressione le strutture sanitarie.
L’HPC è un mezzo importante per migliorare e accelerare la diagnosi delle malattie anche per aiutare i medici a identificare i migliori percorsi di cura. Ad esempio, i sistemi di machine learning basati su HPC possono essere programmati per identificare anomalie nelle immagini diagnostiche attraverso paragoni con dataset più ampi.
I ricercatori del Barcelona Supercomputing Centre (BSC) stanno studiando le applicazioni di questa tecnologia per aiutare gli oftalmologi a identificare più rapidamente le malattie della retina.
I ricercatori hanno usato modelli analitici per elaborare le scansioni degli occhi dei pazienti con il cluster HPC del centro, che è uno dei più grandi supercomputer in Europa con una velocità di 11,1 petaflops. La sfida era diagnosticare una diversificata gamma di malattie della retina, dalla retinopatia diabetica alla maculopatia, operazione resa complessa dal fatto che non vi sono sufficienti immagini per informare una rete neurale profonda da zero. Tuttavia, i ricercatori sono riusciti a trasferire informazioni al sistema riutilizzando i modelli che erano stati informati su dataset di dimensioni maggiori, rilevando così i problemi anche con una quantità limitata di dati. Come risultato, questo nuovo approccio al machine learning può essere di nuovo applicato alla diagnosi di ogni tipo di malattia, anche delle condizioni più rare.
Con le prossime evoluzioni dell’HPC aumenterà la capillarità, facilitando un riconoscimento delle immagini ancora più accurato e aprendo nuove aree di diagnosi delle patologie.
Questa tecnologia ha molte altre applicazioni, compresa la modellazione del funzionamento del cervello umano, come testimonia un progetto del Jülich Supercomputing Centre (JSC) in Germania volto a risolvere uno dei più grandi misteri della biologia: come il cervello umano crea la coscienza. Con l’avanzamento dell’analisi, l’HPC può diventare uno strumento vitale per la sanità a livello globale, anche con il crescere della complessità delle nostre esigenze.
Creare sistemi “a prova di futuro” per le nuove generazioni
La crescita esponenziale di dati prevista per i prossimi anni richiede macchine in grado di elaborare questo volume di informazioni in costante crescita. Tuttavia, l’aumento di mille volte nella potenza di calcolo determinato dall’excascale, emerge una nuova sfida a livello progettuale.
Una maggiore potenza normalmente comporta maggiori consumi energetici. Dal punto di vista della sostenibilità, questo significa che le aziende devono far funzionare i loro sistemi con maggiore efficienza, un problema che viene affrontato con complesse innovazioni che comportano l’uso di aria e liquido.
In Lenovo abbiamo portato innovazioni ogni volta che abbiamo annunciato una nuova generazione di macchine più potenti, rispondendo anche alla sfida dei consumi energetici. I nostri nuovi sistemi sono raffreddati con acqua tiepida, che conduce il calore in maniera più efficiente rispetto all’aria e non richiede ventole o refrigeratori.
Neptune, la nostra tecnologia di raffreddamento a liquido consente di raffreddare processori e rack senza l’utilizzo di sistemi di condizionamento dell’aria. Inoltre, l’energia in eccesso è convertita in calore e viene utilizzata per riscaldare i campus.
L’installazione di questo innovative sistema in uno dei data center del Leibniz-Rechenzentrum (LRZ) di Monaco di Baviera ha portato a un risparmio del 40% sui consumi.
Quando pensiamo ai vantaggi dei computer exascale, dobbiamo anche tenere in considerazione l’efficienza energetica.
Quali novità per l’HPC?
La previsione è che raggiungeremo l’exascale a un certo punto del prossimo decennio e di sicuro in molti in tutto il mondo puntano a questo obiettivo, ma è anche importante concentrarsi sulle importanti problematiche che stiamo già affrontando con l’HPC, che si tratti di cambiamento climatico, diagnostica medica o consumi energetici sostenibili. Queste applicazioni rappresentano dei punti di riferimento nell’avanzamento tecnologico ed è entusiasmante vedere che cosa potremo fare in futuro.