Secondo George Teixeira, Presidente e CEO di DataCore Software, nel 2016 l’elaborazione parallela rivoluzionerà le infrastrutture IT, la virtualizzazione e la produttività aziendale.
Le più grandi innovazioni del futuro sono spesso realizzate basandosi su quelle del passato. Guardando agli Anni ’70, alla nascita del moderno microprocessore e all’apporto della Legge di Moore, si comprende come i microprocessori siano alla base dei due maggiori percorsi di innovazione tecnologica. Il primo ha portato a “monoprocessori” più veloci ed efficienti, traducendosi nella rivoluzione dei PC e nell’attuale pervasività dei microprocessori, dagli smartphone ai dispositivi intelligenti di tutti i tipi. Il secondo è arrivato invece all’elaborazione parallela, che ha permesso di sfruttare la potenza di “molti microprocessori” che operano insieme.
Tuttavia, i miglioramenti nell’elaborazione parallela sono stati soffocati dalla mancanza di hardware specializzato proposto a prezzo conveniente, dal rapido sviluppo nella velocità di clock dei monoprocessori derivante dalla Legge di Moore e dall’assenza di software capace di elaborare carichi di lavoro in parallelo senza dover riscrivere le applicazioni o richiedere strumenti specializzati/esotici. Così, nonostante la potenza dell’elaborazione parallela fosse disponibile, la rivoluzione del parallel computing come funzionalità diffusa nell’IT è rimasta bloccata per la mancanza di software capace di farla esplodere.
Venendo ai giorni nostri, i nuovi progressi nel software promettono di rendere il 2016 l’anno di svolta per l’elaborazione parallela. Prestazioni applicative, gestione dei carichi di lavoro aziendali e la capacità di ottenere ancora maggiori densità sulle piattaforme virtuali sono state frenate negli anni dal crescente divario tra la capacità di calcolo e quella dell’I/O. L’elaborazione multicore è evoluta, senza però che piattaforme di elaborazione parallela convenienti potessero esistere in mancanza di software dedicato. Anche questo è cambiato.
Il software per l’I/O parallelo è in grado di pianificare efficacemente le operazioni di I/O necessarie alla virtualizzazione e ai carichi di lavoro applicativi su tutte le piattaforme server multicore, oggi facilmente reperibili. È in grado di superare (e lo fa) i colli di bottiglia dell’I/O che attualmente frenano il settore sfruttando la potenza dei multicore per aumentare in modo incredibile la produttività, consolidando un maggior numero di carichi di lavoro e riducendo le inefficienze create da un numero eccessivo di server. Portare il consolidamento a nuovi livelli consente di ottenere cospicui risparmi sui costi e notevoli miglioramenti di produttività, permettendo davvero ai sistemi di “fare di più con meno risorse”. Il risultato è che oggi siamo all’inizio di quella rivoluzione promessa dall’elaborazione parallela.
Nel corso del 2016 vedremo anche incredibili incrementi di prestazioni e produttività che trasformeranno l’iper-convergenza e il Software-Defined Storage. Inoltre, crescerà esigenza di soluzioni semplici da utilizzare e in grado di essere facilmente integrate nelle infrastrutture aziendali, sia in quelle esistenti che in quelle future.
Nonostante il recente grande interesse nei confronti dell’iper-convergenza, la tecnologia tende a creare nuovi silo da gestire e l’attuale offerta presenta diverse limitazioni, specialmente quando si parla di scalabilità e prestazioni per gestire carichi di lavoro di livello enterprise. Gli utenti dovrebbero poter avanzare al livello successivo nell’adozione di tecnologie iper-convergenti, dove prestazioni e interoperabilità con il resto dei loro investimenti non sono sacrificati.
I server saranno il nuovo storage – Solamente un layer di Software-Defined Storage abbinato a software per l’I/O parallelo può gestire in modo efficiente la potenza dei server multicore, migrare e gestire i dati attraverso l’intera infrastruttura di storage, integrare flash e sistemi iper-convergenti senza aggiungere ulteriori silo e utilizzare in modo efficiente i dati memorizzati in qualunque parte dell’azienda o della cloud. Liberando la potenza dei server multicore standard, grazie alle tecnologie di I/O parallelo, le infrastrutture dati potranno raggiungere incredibili livelli di consolidamento e produttività.
Con la realizzazione di questa convergenza di software e server, questi ultimi diventeranno sempre più il modello dominante per lo storage: “i server saranno il nuovo storage”. Perché utilizzare strumenti specializzati quando il software intelligente e gli attuali server possono offrire più funzionalità, maggiore automazione e offrire servizi completi per gestire e memorizzare produttivamente i dati attraverso l’intera infrastruttura dati? Perché con i sistemi specializzati i tradizionali produttori di storage non sono più in grado più stare al passo con la Legge di Moore e con l’innovazione e il risparmio offerti dalle piattaforme dei server generici. Questi nuovi sistemi di storage basati sui server stanno trasformando il nostro settore (e continueranno a farlo), aumentando la produttività dell’IT.
Ma la cosa più interessante è che questa rivoluzione è già cominciata. Recentemente DataCore ha fatto registrare il nuovo record mondiale di prezzo-prestazioni e lo ha fatto su una piattaforma iper-convergente (con il benchmark indipendente SPC1 dello Storage Performance Councils). DataCore ha fatto registrare anche i migliori risultati di sempre in termini di spazio occupato e tempi di risposta. In pratica, gli attuali server multicore e software possono “fare di più con meno risorse” e cambiare drasticamente gli aspetti economici e la produttività. Scoprite voi stessi i risultati degli ultimi benchmark: Top 10 SPC1 Price-Performance Results; e ottenete maggiori informazioni leggendo il nuovo e-book di DataCore: How to Unlock the Full Power of Your Servers with DataCore’s Adaptive Parallel I/O Software.
Insieme al Software-Defined Storage, il software per l’I/O parallelo porterà a una nuova rivoluzione nella produttività e nel 2016 trasformerà completamente l’IT.