DataCore ha annunciato i risultati della quinta edizione della propria indagine annuale sullo Stato del Software-Defined Storage. Il sondaggio 2015 ha analizzato l’influenza dell’SDS sulle organizzazioni di tutto il mondo, raccogliendo informazioni dall’esperienza di 477 professionisti IT che stanno attualmente utilizzando o valutando l’SDS con l’obiettivo di superare le criticità legate allo storage dei dati. I risultati, derivanti da aziende appartenenti a settori industriali differenti che gestiscono carichi di lavoro di ogni tipo, offrono spunti di riflessione sorprendenti.
L’indagine ha anche sondato il tema dei livelli di spesa legati ai temi caldi del momento, come i Big Data, l’Object Storage e OpenStack. Inaspettatamente, i dati hanno evidenziato che nel 2015 i finanziamenti stanziati per queste voci sono stati bassissimi. Questo deludente risultato può essere parzialmente giustificato dall’elevato numero di persone che nel corso dell’indagine hanno espresso disillusione.
D’altro canto, il report di quest’anno rivela numerosi elementi a favore dell’implementazione del Software-Defined Storage. Il 52% degli interpellati si aspetta che l’SDS possa allungare la vita utile degli asset di storage già presenti in azienda e garantire il funzionamento dell’attuale infrastruttura di storage anche in futuro, integrando facilmente eventuali nuove tecnologie. Quasi metà delle persone che hanno risposto al sondaggio cerca nell’SDS la possibilità di non essere vincolata a uno specifico produttore di storage, abbassando così i costi dell’hardware scegliendo tra fornitori diversi. Operativamente, gli interpellati vedono l’SDS come un modo per semplificare la gestione di dispositivi di storage di tipo diverso automatizzando le operazioni più frequenti o complesse. Si tratta di risultati notevolmente diversi dal passato, perché oggi l’indagine mostra un chiaro incremento nella percezione dei benefici economici generati dal ricorso all’SDS(riduzione delle spese in conto capitale), che vanno ad aggiungersi ai risparmi sulle spese operative già evidenziati negli scorsi anni.
Tra i risultati sorprende anche il fatto che nonostante la penetrazione complessiva sia in crescita, nel 28% dei casi la tecnologia flash è completamente assente, e che il 16% di chi vi ha fatto ricorso dichiari di non avere raggiunto i miglioramenti prestazionali auspicati in termini di accelerazione applicativa. Interessante notare, inoltre, che il 21% degli intervistati ha indicato come gli attesissimi sistemi iper-convergenti non abbiano offerto i risultati previsti o non si siano integrati al meglio nelle infrastrutture esistenti. Va detto, però, che il Software-Defined Storage e la virtualizzazione dello storage sono considerati ora come necessità urgenti, con il 72% delle organizzazioni che sta facendo quest’anno importanti investimenti su queste tecnologie. L’81% prevede livelli analoghi di investimento su tecnologie di Software-Defined Storage da incorporare in server per SAN/SAN virtuali e soluzioni di storage convergente.
Altri elementi emersi dall’indagine 2015 di DataCore sulloStatodel Software-Defined Storage:
-La capacità di aggiungere capienza allo storage senza interrompere l’operatività aziendale viene identificata come la ragione principale per la scelta del software di virtualizzazione dello storage (52% degli intervistati). Nella parte alta della lista ci sono anche il supporto al mirroring sincrono e ai cluster per l’elevata disponibilità su distanze metropolitane per garantire la continuità operativa, nonché la replica dei dati asincrona per il disaster recovery su sito remoto.
-Oltre metà degli intervistati (il 53%) sostiene di avere una capienza assegnata allo storage flash inferiore al 10%. La quota di chi sostiene di utilizzare la flash per oltre il 40% della capienza complessiva è solamente del 9%.
-Dopo avere virtualizzato i carichi di lavoro dei server, oltre il 60% degli intervistati ha affrontato problemi di degrado delle prestazioni o l’incapacità di raggiungere le prestazioni necessarie. Alla richiesta di quali fossero tipicamente i problemi, il 61% ha risposto la lentezza delle applicazioni; il 46% ha indicato come colpevoli i dispositivi di storage proprietari.
-Gli errori umani stanno portando alla necessità di maggiore automazione. È ormai sempre più chiaro che la complessità legata alla crescita e alla diversificazione dei dati comporta un prezzo da pagare: il 61% degli interpellati ha infatti indicato l’errore umano come causa delle interruzioni nei servizi applicativi e nel funzionamento dei data center.
George Teixeira, Presidente e CEO di DataCore
Questa indagine getta una nuova luce su come i professionisti IT approcciano le innovazioni legate allo storage. I dati rivelano che molte organizzazioni si stanno allontanando dalle funzionalità per lo storage legate ad hardware specifico, realizzando risparmi su CAPEX e OPEX e aumentando il potere d’acquisto. Tutto questo è possibile grazie alla mancanza di vincoli con hardware particolari e al fatto di non essere costretti ad ‘acquistare tutto da zero’ quando si modernizza l’infrastruttura di storage. Dall’indagine emerge anche che tecnologie promosse con convinzione, come l’Object Storage, si trovano spesso relegate in programmi pilota, dove l’IT spera di poterne valutare il vero valore.
Il Software-Defined Storage e il software per la virtualizzazione dello storage, invece, offrono tutte le funzionalità che il mercato oggi richiede, come la disponibilità continua, prestazioni superiori e maggiore efficienza. Questi benefici reali valgono molto di più negli investimenti 2015 di qualunque altra futura promessa di tecnologie e startup che devono ancora essere confermate.