Data management, come risolvere il problema della frammentazione massiva

data management data center tco

C’è un grosso problema che oggi limita l’efficacia del data management: la frammentazione dei dati. Oggi nelle aziende i dati sono talmente dispersi che spesso non si sa nemmeno quali e quanti siano. Lo sostiene Manlio De Benedetto, Director System Engineering di Cohesity, secondo cui però una soluzione c’è. Lo abbiamo intervistato per farcela raccontare.

– Di cosa si occupa Cohesity?

Cohesity si occupa di data management a tutto tondo in un mondo multicloud e ibrido, cioè fatto di realtà che gestiscono i loro dati, on prem o nel cloud oppure in un ambiente misto. Il nostro obiettivo è eliminare il problema della frammentazione massiva del dato. Oggi il dato è sparso tra data center, edge, on prem e cloud. Questa frammentazione porta a un’inefficienza nella gestione e spesso anche ad avere un dato non propriamente conosciuto. Ciò significa che le aziende a volte si perdono quello che possiedono, il dato diventa “dark” e non si sa esattamente cosa si ha all’interno del proprio asset di dati. Questo, secondo noi, è dovuto alla frammentazione e porta a un’inefficace gestione.

La nostra idea è di cercare di mettere un ordine in questa mass data fragmentation, tentando di uniformare e consolidare i dati su un’unica piattaforma, che riassuma le esigenze per la gestione. Il tutto partendo dalla data protection (quindi dal backup) per andare poi alla parte NAS (la condivisione di file tra gli utenti finali di un cliente) e arrivare al disaster recovery. Va da sé che ci deve essere un adeguato livello di security, che oggi è un punto estremamente importante.

Abilitiamo il test and dev per i clienti che vogliono fare delle prove su un’infrastruttura di dati valutando la nuova versione di un sistema operativo o di un database. Grazie a Cohesity, è possibile provare le nuove funzionalità senza duplicare il dato, riscriverlo da altre parti, partendo sempre da un unico file system su cui scriviamo tutto con una gestione multilocation.

In sostanza, mettiamo assieme tutti i dati cercando di combattere il fenomeno della frammentazione, fornendo anche una gestione semplificata del dato stesso.

– Come sono gestiti oggi i dati in Italia?

Sappiamo che oggi il dipartimento IT usa circa il 40% del tempo della settimana per il data management “fisico”, quindi per installazioni, gestioni e per la manutenzione dell’infrastruttura. Nel corso del prossimo anno, iI 70% delle aziende sarà costretto a tagliare i costi e l’89% sta pensando di andare nella direzione dell’as a service o del cloud.

Ci sono aziende già completamente in cloud, ma sono veramente poche, altre ancora totalmente on prem. Tuttavia, la tendenza è di avere un’infrastruttura mista per risparmiare tempo nell’installazione e ridurre i costi. Probabilmente, la maggior parte delle aziende sempre di più in futuro adotterà una strategia ibrida di data management. E questo lo vediamo praticamente tutti i giorni. Tutte le aziende stanno cercando di capire come andare sul cloud e come vengono gestiti i dati oggi.

– A che punto siamo in Italia in termini di adozione del cloud?

La spinta per andare verso il cloud poggia su due pillar: il risparmio delle risorse per la gestione degli ambienti on prem (che diventa sempre più onerosa) e il risparmio nei costi. Con un ambiente misto non solo si può risparmiare sulle risorse di gestione degli ambienti on prem, ma c’è un risparmio in generale e anche lo spostamento delle spese da Capex a Opex.

Un altro aspetto interessante è che il cloud permette di essere un po’ più agili e quindi, se ci si rende conto di aver spostato una percentuale di dati sul cloud troppo elevata e si ha la necessità di cambiare, si riesce tranquillamente a risistemare le cose.

– In azienda c’è la consapevolezza del valore del dato e che debba essere adeguatamente protetto anche in cloud?

Dopo la migrazione, il dato deve essere protetto, perché non ci si può permettere di perderlo. Soprattutto le aziende che erano abituate a proteggere il dato on prem e stanno cominciando a mettere i dati sul cloud, o averli in un ambiente misto, si fanno esattamente la stessa domanda di prima: “come posso adeguatamente proteggere il dato che adesso è gestito in maniera diversa?”. Se la gestione del dato on prem veniva fatta sia per la sua produzione sia per il suo backup, adesso che è nel cloud bisogna fare la stessa cosa. Questo perché il risultato è sempre il medesimo, cioè se si perde il dato lo si deve poter ripristinare, lo si deve poter recuperare e farne un restore dal cloud. Una delle nostre attività è dare un servizio di backup per avere la data protection in ambienti misti.

Sia i nostri clienti sia i prospect sono consapevoli e molto preoccupati dai ransomware. Il nostro lavoro non è bloccare l’ingresso dei ransomware, ci pensano altre aziende, però possiamo garantire ad attacco avvenuto che il backup che proteggiamo sia assolutamente intoccabile e possa e  sere ripristinato in maniera molto veloce. Diamo la possibilità ai clienti di tornare velocemente online. La riduzione del tempo di downtime è per noi fondamentale.

– Sul vostro sito campeggia la scritta “say no to more silos”. Anche in Italia i dipartimenti aziendali sono ancora “gelosi” dei propri dati? Questo vale per tutte le aziende?

I silos nascono in funzione dell’evoluzione dell’infrastruttura IT nel tempo. Questo perché nel corso degli anni le aziende hanno avuto l’esigenza di installare dei server per la produzione, l’infrastruttura di backup, l’archiviazione sostitutiva, il data masking, i Nas per il file sharing e così via. Tali esigenze sono sorte in momenti diversi nella storia dell’azienda e quindi sono state ricercate le soluzioni migliori disponibili in quel determinato momento. Da qui la proliferazione di più silos che, di nuovo, comportano la frammentazione del dato e un data management multiplo. E questo vale per tutte le aziende, dalla più piccola a quella di grandi dimensioni, perché i silos sono frutto della naturale soluzione alle esigenze che nascono nel tempo.

data management

– Come l’AI può intervenire in questa situazione e migliorare la gestione e la governance dei dati?

Quello che Cohesity fa in prima battuta è analizzare com’è composta l’infrastruttura del cliente e consolidarla. In linea di massima, si parte dal backup, che tra l’altro è una delle cose più difficili da gestire. Poi andiamo a consolidare pian piano le varie use case, dalla protezione del dato al file sharing, fino a far girare delle app direttamente sulla nostra piattaforma. Per esempio, l’antivirus che sta quasi sempre fuori da una soluzione di file sharing, nel nostro caso può girare direttamente su Cohesity.

L’intelligenza artificiale, e quindi il machine learning, agiscono soprattutto nell’ambito della data governance, perché quello che cerchiamo di fare è avere la convergenza tra security e data governance. Dicevo che spesso non si sa quali dati si possiedono. Per noi data governance vuol dire dare una mano ai clienti a capire cos’hanno nei loro data center. Di questo si fa carico l’intelligenza artificiale, che operando in near real time, è in grado mostrare anche chi sta accedendo ai dati e, soprattutto, se ci sono delle attività anomale e se i livelli di sicurezza sono adeguati. E tutto può essere eseguito on prem, nel cloud o as a service, quindi senza dover installare infrastrutture ma puramente come servizio. Anche il backup oggi può essere fatto as a service.