George Teixeira, CEO di DataCore, ci illustra lo stato dell’arte della tecnologia per il Software-Defined Storage, svelandoci la “ricetta segreta” per una implementazione ben riuscita.
– Qual è il segreto chiave del successo del software-defined?
Il segreto è ovvio: a portare il successo non è la tecnologia, ma sono i vantaggi economici. Sì, il Software-Defined Storage deve coprire una vasta gamma di servizi e funzionalità di storage, cosa che noi facciamo con il nostro software SANsymphony. Ma la chiave è che deve funzionare con gli investimenti già realizzati e renderli migliori, permettendo l’incorporazione rapida di nuove tecnologie, deve offrire la flessibilità di lavorare con le soluzioni di diversi produttori e deve rendere l’infrastruttura pronta per il domani, minimizzando i rischi di interruzione dei servizi legati al cambiamento e offrendo un chiaro percorso di crescita nel tempo. Questo tipo di flessibilità negli investimenti è la chiave per ridurre i costi, per conquistare maggior potere di acquisto rispetto a ciò che offre il mercato e per integrare nuovi investimenti quando serve. Inoltre, dà all’utente l’agilità necessaria per cavalcare l’onda dell’innovazione e massimizzare il rapporto prezzo/prestazioni senza gli elevati e costanti costi legati al metodo ’usa e getta’.
– Lo storage tradizionale pone seri limiti alle prestazioni del processo di elaborazione. Quali sono i principali aspetti che permettono al Software-Defined Storage di aumentare la velocità di accesso ai dati in modo così evidente?
In effetti, per eseguire i suoi compiti, lo storage tradizionale utilizza controller specializzati e software specifico per ciascun dispositivo. Il segreto di DataCore è quello di cavalcare la tecnologia, il che significa che utilizziamo server standard pre-configurati basati su Intel e software che funziona su sistemi di qualunque produttore e a livello infrastrutturale, invece di utilizzare un singolo modello o un singolo marchio di storage. In questo modo possiamo sfruttare la legge di Moore, che si traduce in una capacità di calcolo sempre più conveniente ed efficiente. Per esempio, la tecnologia Parallel I/O di DataCore sblocca la potenza inespressa dei server multi-core, facendo in modo che più CPU riducano i tempi di risposta e portino a maggiori prestazioni. Il tutto è già stato ampiamente dimostrato dai nostri numeri da record mondiale, che evidenziano come le soluzioni software-defined siano oggi abbordabili e possano offrire prestazioni ben superiori a quelle di sistemi di storage enterprise e all-flash dal costo pluri-milionario.
– In pratica, come si concretizzerà la rivoluzione del parallel computing proposta da DataCore?
Gli utenti scopriranno prestazioni elevate e risparmi sui costi, e il successo di mercato lo confermerà. La nostra base di oltre 10.000 clienti sta già registrando netti miglioramenti delle prestazioni. Basta guardare i risultati economici e prestazionali evidenziati nella recente indagine realizzata dalla società indipendente TechValidate su un campione di quasi 2.000 di loro.
– Dal vostro punto di vista, quali sono le dirette conseguenze della costante evoluzione dell’iper-convergenza e del Software-Defined Storage?
Vedo l’iper-convergenza solamente come una delle possibilità di scelta nell’implementazione del Software-Defined Storage, il che significa che gli utenti possono optare per questa possibilità (hypervisor, sistema di calcolo, networking e storage) o utilizzare una più tradizionale SAN e dello storage cloud. Una soluzione di storage davvero software-defined come la nostra consente a tutti gli elementi coinvolti di funzionare in armonia. Vedo anche che ciò che alcuni chiamano iper-convergenza è troppo limitante: non protegge gli investimenti già realizzati, non gestisce i carichi di lavoro enterprise e la relativa infrastruttura (per esempio carichi di lavoro di tipo database e Fibre Channel) e crea semplicemente un ulteriore “silo” di apparati specializzati e proprietari proposti da un singolo vendor da gestire invece di lasciare all’utente libertà di scelta e potere di acquisto per il futuro.
– Le annunciate piattaforme iper-convergenti tendono a creare “silo” che limitano scalabilità e prestazioni, specialmente quando devono confrontarsi con carichi di lavoro di livello enterprise. Come si supera questo aspetto?
Assicurandosi che la piattaforma iper-convergente sia compatibile con gli investimenti già realizzati e che l’hardware possa essere acquistato separatamente da produttori diversi, in modo da avere sempre differenti possibilità di scelta. Il segreto più importante del Software-Defined Storage è che deve essere veramente “software” e l’hardware indipendente dai produttori. In termini di prestazioni, bisogna chiedere al produttore che cosa sta facendo per sfruttare al meglio le elevate prestazioni degli attuali processori multi-core; troppo spesso la risposta è quella di proporre un gran numero di nodi per risolvere il problema, ma poi costi e complessità crescono, ovvero l’opposto di ciò che dovrebbe essere l’iper-convergenza, la cui filosofia è quella di minimizzare costi e complessità facendo “di più con meno risorse”.