Riccardo Facciotti, Tech Sales Director in Infinidat, spiega come sia possibile raggiungere l’alta disponibilità a costi contenuti con le architetture hyper-storage.
Questa tecnologia è nata per sfatare alcuni miti del mondo dello storage. Compromessi che in passato erano d’obbligo, oggi, con un approccio moderno allo storage, non lo sono più. E le possibilita’ che le imprese potevano solo sognare fino a poco tempo fa, adesso sono realtà.
Questo articolo illustra come l’approccio hyper-storage permetta alle aziende di ottenere la massima disponibilità dei dati a costi contenuti, con le più alte performance, con una scalabilità pressoché infinita, con il software più ricco ed evoluto e con una facilità d’uso impensabile fino a qualche anno fa.
Questo articolo spiegherà tecnicamente con esempi concreti perché’ le aziende non devono più accettare compromessi quando prendono decisioni sulla loro architettura storage. Con un approccio Hyper-Storage, queste aziende posso avere tutto quello sopra definito senza essere costretti a rinunciare a nulla. Hyper-storage non è una tecnologia per risolvere i problemi dell’industria dello storage di oggi ma e’ nata per affrontare le sfide dei prossimi 20 anni.
Il suo obiettivo è di rendere le aziende pronte ad affrontare e gestire la rivoluzione dell’esplosione dei dati dei decenni a venire.
La tecnologia hyper-storage è unificata, multi Petabyte, ad elevate prestazioni e in grado di assicurare massime performance in termini di IOPS e throughput con tempi di latenza bassissimi. Il concetto sottostante è quello di sviluppare e utilizzare tecnologie software cosi intelligenti da riuscire ad avere, con workload reali, anche l’hardware più avanzato in termini di prestazioni e affidabilità. Ovvero, si parla di architetture basate su algoritmi di Machine Learning in grado di utilizzare al meglio ogni componente hardware per ottenere la massima efficienza operativa in ogni secondo.
Il mondo si sta dirigendo molto rapidamente verso concetti di data analytics e machine learning ed è ora che anche il mondo dello storage riconosca e adotti questo tipo di approccio. Ogni singolo I/O deve essere identificato, documentato, analizzato e valutato per comprenderlo e per ottimizzare il successivo. Analizzare tutti i tipi di I/O e migliorarli nel tempo è la base dello storage machine learning.
Il primo livello di questa tecnologia è quello di integrare questo meccanismo automatico in ogni sistema, capire le tipologie di carichi di lavoro che vi girano e migliorarne il servizio nel tempo.
Il secondo livello, quello più interessante, è quello di raccogliere tutti queste tipologie di carichi di lavoro da tutti i sistemi del mondo, integrarli e attraverso essi migliorare e ottimizzare costantemente gli algoritmi per il machine learning.
Diversi workload possono operare contestualmente sulla stessa piattaforma e ognuno verrà servito a seconda delle sue esigenze. “One storage fits all for all”.
L’hyper-storage si avvale di molte altre tecnologie per massimizzare performance e disponibilità. L’avanzato meccanismo di hyper-storage si basa sulla creazione di una vasta gamma di gruppi di protezione logica al singolo livello di blocco, completamente scollegati dall’hardware. Assicura processi ad altissime prestazioni che girano in parallelo su tutti i componenti in modo bilanciato. Offre inoltre processi di ricostruzione dei dati enormemente più rapidi, senza impattare le prestazioni in produzione. La terminologia dei tempi di rebuild è passata da parecchie decine di ore a pochi minuti e, inutile dirlo, l’impatto sulle performance non dovrebbe più preoccupare se si utilizzano architetture hyper-storage.
Per farlo, l’hyper-storage deve disporre di doppia ridondanza per ogni singolo componente, senza eccezioni. Il sistema deve essere ridondante in caso di malfunzionamento, non importa di quale componente si tratti. L’hyper-storage, disaccoppiando il software dall’hardware con strati di virtualizzazione e utilizzando la capacità spare virtuale invece dei dischi fisici permette ai sistemi di sopportare dozzine di malfunzionamenti dei dischi, a prescindere di quale disco si tratti, prima di doverne sostituire qualcuno. In caso di failure di uno o più dischi, parte automaticamente un processo di auto-riparazione e, dopo alcuni minuti, i dati vengono completamente ricostruiti e bilanciati su tutti i dischi attivi, assicurando nuovamente una piena protezione..
Parliamo ora di gestione e facilità d’uso. Lo spazio visibile all’utente finale è sempre separato dall’hardware con strati di virtualizzazione. Per questo motivo lo spazio virtuale può essere 10 o 100 o 1000 volte superiore a quello fisico. Elevata flessibilità, parallelismo, auto-balancing e avanzate funzionalità sono assodate in questa soluzione. In aggiunta all’immediatezza delle operazioni, la creazione, cancellazione o modifica di qualunque entità è istantanea quando si hanno solo dei puntatori che vengono reindirizzati tra strati di virtualizzazione. Lo stesso vale per le copie di dati. In realtà, qualunque operazione fatta in ambiente hyper-storage è completamente istantanea.
La peculiarità dell’architettura hyper-storage è stata progettata per offrire performance al top quando in gira su hardware comune. Il throughput aggregato offerto da economici dischi è più elevato dei TB di RAM e delle dozzine di TB di flash che i sistemi usano per gli strati cache. Questo assicura grandi quantità di dati a costi contenuti. Ma la capacità di utilizzare senza alcun compromesso un supporto che non è considerato il più veloce hardware a disposizione e che ha un costo più aggressivo del più performante oggi sul mercato, rende questa soluzione estremamente interessante. Lo storage del futuro è presente e disponibile oggi con la soluzione di Infinidat.