Secondo George Teixeira, Presidente e CEO di DataCore Software, nel 2017 il software di elaborazione parallela rivoluzionerà la produttività cambiando le regole di business.
Con così tanta potenza di calcolo ancora non sfruttata – nonostante tutti gli incredibili avanzamenti tecnologici che si sono registrati – il 2017 sarà l’anno in cui il software di elaborazione parallela diventerà popolare e permetterà di liberare l’immensa potenza di calcolo dei moderni sistemi multi-core. Vedremo così un impatto dirompente e positivo sugli aspetti economici e sulla produttività dell’informatica e dove potrà essere applicato.
Le innovazioni software renderanno il 2017 l’anno della svolta per l’elaborazione parallela. La chiave è che il software deve diventare semplice da usare e non interferire con le applicazioni, per consentirgli di spostarsi da casi d’uso specializzati a un utilizzo più generalizzato. Facendolo, l’impatto sarà enorme, perché le prestazioni applicative, i carichi di lavoro enterprise e un maggiore consolidamento della densità delle piattaforme virtuali e del cloud computing – finora soffocati dal crescente gap tra capacità di calcolo e I/O – non saranno più limitati. Tutto ciò sarà realizzabile con le nuove tecnologie software per l’I/O parallelo, che oggi sono disponibili e facili da usare, dato che non richiedono modifiche alle applicazioni e che sono in grado di sfruttare completamente la potenza dei multi-core per aumentare notevolmente la produttività e superare il collo di bottiglia dell’I/O che ha frenato l’intero settore: saranno il catalizzatore del cambiamento.
Il software di elaborazione parallela è pronto per andare oltre l’ambito degli impieghi specializzati come l’HPC e di aree come la genomica, che si focalizzano prima di tutto sulla capacità di calcolo, ed estendersi al più ampio mondo applicativo che richiede interazioni e risposte in tempo reale. Ciò comprende applicazioni e storage molto diffusi che stanno alla base di transazioni aziendali, cloud computing, database e data analytics, così come dei mondi interattivi del machine learning e dell’Internet of Things (IoT).
L’impatto degli analytics in tempo reale e delle prestazioni elevate nei big data sarà profondo
La combinazione di tempi di risposta più veloci e dell’impatto moltiplicante sulla produttività attraverso la parallelizzazione porterà gli analytics in “tempo reale” e le prestazioni di big data e database a un nuovo livello. Questo è ciò che prevede DataCore per il 2017. La nostra precedente esperienza nell’elaborazione parallela, nell’I/O in tempo reale e nel software-defined storage ci ha messo in grado come nessun altro di trarre vantaggio dalle prossime grandi sfide, in un mondo che richiede a una gran quantità di interazioni e transazioni di essere trattate con un passo più veloce e con tempi di risposta ancora più rapidi.
La capacità di eseguire quantità maggiori di lavoro in parallelo – e di reagire velocemente – è la chiave. DataCore si vede come l’elemento in grado di aiutare a fare quel cambio di passo necessario e rendere pratici e convenienti gli analytics in tempo reale e il miglioramento delle prestazioni nei big data. Le implicazioni sulla produttività e sulla capacità di prendere decisioni in base alle informazioni estratte dai dati in aree come la finanza, il banking, il retail, l’identificazione delle frodi, la sanità e la genomica, così come nelle applicazioni che riguardano il machine learning e l’Internet of Things, saranno profonde.
L’impatto di Microsoft è in arrivo: lo Stack Azure, il cloud ibrido, Windows e SQL Server 2016
Il successo e la crescita di Azure Cloud di Microsoft sono già divenuti evidenti, anche se l’impatto reale si vedrà con la più ampia strategia che Microsoft ha messo in campo per riconciliare il mondo on-premise con quello del cloud computing. Microsoft è stata uno dei primi fornitori cloud a riconoscere che il mondo non è composto solo da cloud pubbliche, ma che continuerà a essere un mix di on-premise e cloud. Lo Stack Azure di Microsoft continua ad avanzare silenziosamente per offrire i benefici della capacità di calcolo in stile cloud, indipendentemente dal fatto che si tratti di cloud vera e propria o di cloud privata: è diventato il modello di riferimento per il cloud computing ibrido. Inoltre, Microsoft continua a integrare ulteriormente le sue soluzioni Windows e server per farle lavorare in modo sempre più trasparente con le funzionalità cloud.
Mentre Windows e Azure ottengono la maggior parte dell’attenzione, uno dei cambiamenti più sostanziali in Microsoft sono state la reinvenzione e la trasformazione della sua offerta database in una vera piattaforma per il futuro di analytics e big data. È giunto il momento di dare nuovamente un’occhiata a SQL Server 2016: è molto più potente e capace, e ora si adatta a tutte le tipologie di dati. Come una piattaforma, è stato pensato all’origine per lavorare insieme all’ampio ecosistema di partner presenti nel marketplace di Microsoft, compresa DataCore con le sue innovazioni nell’elaborazione parallela. L’obiettivo è quello di ridefinire quello che è possibile fare nei tipici casi d’impiego delle tradizionali applicazioni aziendali per l’impresa, la cloud, le prestazioni dei big data e gli analytics in tempo reale, oltre che sviluppare nuove tipologie d’uso nel machine learning, nel cognitive computing e nell’Internet of Things.
Lo storage si è trasformato: è un’infrastruttura server + software-defined!
Siamo nel mezzo di un‘inevitabile e crescente tendenza in cui sono i server a definire che cos’è lo storage. Seguendo questo trend, DataCore ha utilizzato le tecnologie software per l’I/O parallelo per potenziare i server multi-core pre-configurati e arrivare ai sistemi di storage migliori del mondo in termini di prestazioni, bassa latenza e rapporto prezzo-prestazioni. I tradizionali sistemi di storage non sono più in grado di tenere il passo e sono in declino. Il risultato è che vengono sempre più sostituiti con server economici e soluzioni infrastrutturali software-defined, che possono sfruttare la loro potenza per risolvere il problema della crescente quantità di dati da memorizzare. La funzione di storage e i servizi dati a essa associati sono ora gestiti dal software e stanno diventando semplicemente un altro “carico di lavoro applicativo” che gira su queste convenienti piattaforme server. E questa ondata di sistemi di storage flessibili basati su server sta già facendo registrare nel settore un impatto devastante.
Commercializzati come sistemi SAN server, SAN virtuali, web-scale, scale-out o iper-convergenti, sono un insieme di server standard pre-configurati, schede flash e unità disco. È però il software che definisce veramente il loro valore.
Che cosa c’è oltre la flash?
Ricordate quando la flash era considerata la grande novità? Ora è realtà. Quale sarà quindi il prossimo passo? Come faremo a essere più veloci e a fare di più con meno risorse? La risposta è ovvia: se la flash oggi è una realtà e le prestazioni e la produttività sono ancora un problema per molte applicazioni enterprise, specialmente quando si parla di database, allora bisogna parallelizzare l’elaborazione dell’I/O.
Perché? Questa tecnica moltiplica ciò che può essere ottenuto facendo lavorare in parallelo molti motori di calcolo per gestire e rimuovere i colli di bottiglia e per innalzare i ritardi delle code nello stack, avvicinandoli alle applicazioni, evitando il più possibile la gestione dell’I/O a livello di dispositivo. Prestazioni e tempi di risposta vanno così ben oltre quello che è possibile ottenere con le sole ottimizzazioni a livello di dispositivo offerte da flash/SSD. La potenza di “molti” supera di gran lunga ciò che solo “uno” può fare: l’unione di flash e I/O parallelo consente agli utenti di far funzionare le applicazioni più velocemente, completare maggiori quantità di lavoro e aprire le applicazioni ad altre tipologie d‘impiego prima impossibili da concretizzare.
Andare oltre l’iper-convergenza: l’iper-produttività è un obiettivo reale
Con l’avanzare del 2017, il software iper-convergente continuerà a incrementare la sua popolarità. Per cementare questo successo, però, gli utenti dovranno essere in grado di trarre pieno vantaggio dalla sua promessa di maggiore produttività. L’incredibile potenza del software di elaborazione parallela permetterà di sfruttare al meglio ciò che hardware e software possono fare (come esempio, si veda questo video di ESG)
Gli attuali sistemi iper-convergenti sono in sostanza un server più un’infrastruttura software-defined, ma in molti casi sono estremamente limitati in termini di prestazioni e possibilità d’impiego e ancora più di frequente non sono sufficientemente flessibili o non possono essere integrati in ambienti IT più ampi (per esempio non supportando fibre channel, che spesso è indispensabile per la connettività aziendale e per i database). Le potenti tecnologie di storage software-defined in grado di eseguire l’I/O parallelo offrono in modo efficace un livello più elevato di flessibilità e sfruttano la potenza dei server multi-core in modo che per eseguire il lavoro sia sufficiente un numero più basso di nodi, rendendoli più convenienti. Il software può inoltre integrare la flash e lo storage su disco esistente senza creare silo aggiuntivi, migrare e gestire dati attraverso l’intera infrastruttura di storage e utilizzare efficacemente i dati memorizzati nella cloud.
Il prossimo balzo in avanti: sfruttare l’impatto moltiplicatore dell’elaborazione parallela sulla produttività
Questa combinazione di software potente e di server porterà a maggiori funzionalità, più automazione e a servizi completi per gestire e memorizzare produttivamente i dati nell’ambito dell’intera infrastruttura dati. Tutto ciò significherà una nuova epoca, in cui i benefici dell’elaborazione parallela multi-core potranno essere applicati universalmente. Questi avanzamenti (che sono già una realtà) sono la chiave per risolvere i problemi causati dalla lentezza dell’I/O e da tempi di risposta inadeguati, che sono stati i responsabili delle scarse prestazioni nei carichi di lavoro applicativi e del mancato consolidamento del risparmio sui costi. Le migliorie nell’elaborazione multi-core, nel software di elaborazione parallela e nell’infrastruttura software-defined, tutte insieme, sono fondamentali per arrivare al prossimo balzo in avanti della produttività aziendale.