Eran Brown, Emea CTO, Infinidat. La prossima sfida sarà quella di semplificare il data management e storage perché il mondo sta diventando ‘Connected Everything’.
Siamo sempre più vicini a un mondo completamente connesso, sono queste le conclusioni di Statista, società specializzata in ricerche di mercato, secondo la quale entro il 2025 saranno circa settantacinque miliardi i dispositivi connessi utilizzati in tutto il mondo. Dati che confermano la consapevolezza delle aziende circa le opportunità offerte da Internet of Things (IoT) e Machine to Machine (M2M) basate sul valore commerciale e operativo derivante dai dati generati da queste tecnologie. Tuttavia, più ci si avvicina a uno scenario di “Connected Everything”, più aumentano i dati da gestire, mettendo a dura prova budget e infrastruttura IT delle aziende.
Gestire la scalabilità dei dati
Le informazioni generate dall’IoT sono molte più di quelle che le applicazioni tradizionali riescono a gestire, dando vita a “valanghe” di dati. La crescita simultanea del numero di dispositivi edge e della quantità di informazioni prodotte provoca un aumento esponenziale sia dei dati inviati al core che della larghezza di banda necessaria per raggiungerlo. Questo volume di dati, combinato alla velocità e alla diversità dei dati generati, rende la loro gestione – a livello operativo e finanziario – estremamente complessa. Senza dimenticare la questione della loro conservazione: alcuni dati devono infatti essere custoditi per periodi di tempo prolungati per l’analisi di trend a lungo termine.
Da un punto di vista aziendale, IoT e Big Data non sono diversi da ogni altra tecnologia precedente basata su dati adottata dalle aziende per ridurre i costi, aumentare i fatturati o identificare e sviluppare nuove opportunità di business. Tuttavia, le organizzazioni hanno la necessità di utilizzare questi dati velocemente per restare competitive nel mercato. L’introduzione di un nuovo strumento di estrazione dei dati quasi in tempo reale ha sempre valore per il business, ma solo se i costi iniziali e di gestione della soluzione di data management vengono giustificati da un incremento dei guadagni. E poiché la trasformazione digitale rende l’infrastruttura una quota importante dei costi, questo è un aspetto che spesso può agevolare o bloccare i progetti.
In breve, la sfida è quella di mantenere bassi i costi di infrastruttura e di rendere velocemente accessibili capacità e potenza di elaborazione in modo tale che l’azienda possa sfruttarle quando necessario, in particolare nelle iniziative di trasformazione digitale.
L’enigma della data security
La gestione dei dati in tempo reale aggiunge una nuova sfida, con la necessità di proteggere e garantire la privacy delle informazioni. La recente indagine realizzata da Society for Information Management (SIM) indica la privacy tra le prime preoccupazioni IT per molti CIO. Nonostante questo non si rifletta ancora sui budget, le aziende stanno iniziando a chiedersi come possano proteggere l’infrastruttura da attacchi cyber che stanno diventando sempre più sofisticati.
I nuovi tool introdotti per affrontare questi attacchi complessi devono analizzare più punti dati provenienti da più fonti. Per fare questo è necessario raccogliere, archiviare e analizzare grandi volumi di dati, rendendo la sicurezza IT una delle tecnologie in rapida crescita circa il consumo dei dati, in un ambiente caratterizzato già da un veloce incremento.
Maggiori capacità incideranno su disponibilità e performance?
Soluzioni storage, infrastrutture iperconvergenti e piattaforme di cloud storage pubblico tradizionali sono state implementate sempre in modo relativamente semplice, ma prevedono ancora costi operativi elevati.
È evidente la richiesta di maggiori capacità storage per rispondere alle necessità di questi ambienti, pertanto la riduzione dei costi e la facilità di gestione saranno fattori sempre più importanti da tenere in considerazione.
Tutto questo conduce alla seguente domanda: le architetture dual-controller, originariamente progettate per una capacità da uno a dieci Terabyte, rispondono ai requisiti di resilienza di ambienti di grandi dimensioni? La stessa domanda può essere posta per la disponibilità offerta dai cloud pubblici: una disponibilità a “4 nove” o “5 nove” (99.99% – 99.999%) è sufficiente per le applicazioni business-critical?
È ora di cambiare verso un modello software-centric?
Se le aziende desiderano restare competitive in questo mondo data-centric, dovranno focalizzarsi sulla propria infrastruttura. “Seguire la massa” non creerà vantaggi competitivi in questa nuova economia.
È tempo di prendere in considerazione approcci alternativi, perché quelli tradizionali obbligano le aziende a scegliere tra prestazioni, disponibilità e costi. Soluzioni moderne basate su software intelligenti non richiedono alcun compromesso e offrono affidabilità, gestione semplificata, ripristino dei dati semplificato, protezione senza precedenti e densità storage migliorata. Tutto questo senza incidere sulle prestazioni o sulle capacità dei sistemi esistenti, utilizzando componenti hardware a costi contenuti.
La capacità di raddoppiare virtualmente lo storage disponibile, incrementando la resilienza e riducendo di un terzo la necessità hardware, non solo permette una gestione migliore dei dati e maggiore efficienza, ma rallenta anche gli investimenti in infrastruttura. Con un modello di offerta “capacity on demand” o “as-a-service”, le aziende possono operare e crescere senza ritardi e senza investire in capacità non utilizzate. In questo modo si evita il provisioning anticipato di componenti hardware basato su previsioni di crescita dei dati, previsioni difficili da realizzare in un momento di migrazione verso un mondo Connected Everything.