Dati e multicloud, intervista ad Andrea Zinno di Denodo

Una strategia multicloud implica la possibilità di cambiare cloud-provider in itinere, occorre dunque un metodo moderno di data integration.

multicloud

Andrea Zinno, Sales Director & Data Evangelist di Denodo, ci racconta l’approccio aziendale verso i clienti quando si parla di dati ibridi, multicloud e migrazione.

– Quando si parla di migrazione molte realtà professionali sono in difficoltà. Quali strategie e quale supporto offrite come Denodo?

Il tema principale di qualsiasi migrazione è che spesso questa comporta un cambio di infrastruttura tecnologica: nel caso del cloud, la migrazione non implica un semplice spostamento “geografico” dei dati, ma comporta anche l’adozione di applicazioni e soluzioni offerte dal cloud provider stesso.
Un esempio tipico è quello dei data warehouse on premise: quando si migra sul cloud dei principali provider (come Amazon, Google, Microsoft), che dispongono di soluzioni di data warehouse proprie, si deve affrontare anche un necessario cambiamento tecnologico.

Guardando al mondo dei dati, generalmente il problema che le aziende devono affrontare è come gestire la migrazione causando il minore impatto possibile per gli utenti che devono continuare a utilizzare proprio quei dati: in un contesto di business sempre più veloce, infatti, non è ipotizzabile interrompere un servizio “solo” per portare a termine la migrazione. Diventa quindi fondamentale poter contare su soluzioni che consentano di rendere la migrazione indipendente dai cosiddetti “data consumer”.

Denodo offre proprio questo: come soluzione che opera nell’ambito del data management logico, crea un livello di disaccoppiamento tra chi utilizza i dati e i dati veri e propri, facendo in modo che la migrazione sottostante venga mascherata e non impatti gli utenti. Quando il cliente ha già un’infrastruttura dati implementata, tendenzialmente gli utilizzatori non si accorgono nemmeno che è in corso una migrazione, poiché è compito della Denodo Platform realizzare il passaggio, senza precludere l’accesso completo ai dati di cui gli utenti necessitano. Il ruolo di Denodo è dunque quello di creare un livello intermedio di disaccoppiamento, che possa assorbire tutta la complessità di qualsiasi tipo di migrazione (in cloud o on premise).

hybrid cloud Servizi infrastrutturali SaaS

Dati e informazioni nell’era multicloud

– L’analisi dei dati ibridi e la gestione multicloud rappresentano una delle sfide più rilevanti degli ultimi anni, cosa proponete per implementarne una gestione efficiente?

La complessità gestita dalla Denodo Platform può essere di varia natura, da quella relativa all’infrastruttura tecnologica a quella dovuta al fatto che i dati sono sempre più veloci e diversificati, fino alla complessità tipica di un mondo multicloud ibrido con architetture che si estendono al di fuori dei confini aziendali su più cloud provider.

In tale contesto, il concetto di logical data integration è fondamentale, in quanto un livello logico non obbliga a collezionare i dati preventivamente in un unico punto solo per poterli mettere a disposizione. Al contrario, si basa su un’idea di separazione logico-fisica per cui si ha la necessità di centralizzare solo la rappresentazione dei dati (in effetti ciò serve agli utenti), lasciando i dati veri e propri sulla sorgente.

Dati e multicloud

In un mondo ibrido come quello attuale, con una molteplicità di dati distribuiti e innumerevoli varianti tecnologiche, tale livello di disaccoppiamento è in grado di mascherare e gestire la grande sfida della complessità.

Una strategia multicloud implica la possibilità di cambiare cloud-provider in itinere ed è pertanto necessario un metodo moderno di data integration basato sia sul disaccoppiamento tra chi utilizza i dati e dove questi risiedono, sia su un approccio logico che consenta di minimizzare lo spostamento dei dati e che – in caso di migrazione – eviti di dover rinunciare ai dati copiati in precedenza per sostituirli con altri solo perché rappresentati in modo diverso.

– L’approccio cloud consente di gestire al meglio picchi e richieste improvvise, come?

In questo caso non ci si riferisce solo ai dati, ma all’essenza stessa del cloud: questo si basa su un pull di risorse ampio e mai utilizzate al 100%, che rappresentano la riserva di potenza computazionale necessaria per gestire i picchi.
Considerato che difficilmente si verificherà un picco contemporaneo su tutti i clienti a livello globale, il cloud provider ha molta più facilità di rispondere alle esigenze di un singolo rispetto a quanto questo potrebbe fare con un’infrastruttura totalmente on-premise (in questo caso, infatti, sarebbe necessario dotarsi di un’infrastruttura che rischierebbe di rimanere il 90% del tempo inattiva, solo per avere la garanzia di riuscire a gestire eventuali picchi autonomamente).

Si è quindi diffusa un’idea di informatica come commodity che – pur avendo un impatto dal punto di vista dei costi ongoing – consente di far fronte alle richieste improvvise senza correre il rischio di blocco dei sistemi e senza gravare sulle aziende con spese infrastrutturali altrimenti ingestibili.

hybrid cloud cloudera data platform trasferimento dati

Dati e multicloud, le potenzialità per il business

– Cloud e on-premise: come misurare l’impatto sulla sostenibilità?

Oggi si pone una fortissima attenzione al tema della sostenibilità e al calcolo dell’impronta di carbonio, che assume una rilevanza ancora maggiore nel caso di un settore energivoro come quello dell’informatica.

I processi della Digital Transformation portano con sé la necessità di una potenza di calcolo sempre più grande (si pensi, per esempio, alle risorse necessarie per abilitare machine learning o intelligenza artificiale): è importante raggiungere la consapevolezza che vivere in un mondo digitalizzato significa avere un impatto anche dal punto di vista ambientale.

Esistono tuttavia architetture che consentono di avere un impatto minimo, mettendo a fattor comune – come fanno i cloud provider – la potenza computazionale a disposizione dei clienti. Ecco che ritorna il concetto di picco: una gestione tradizionale implicherebbe che ogni azienda si dotasse delle risorse necessarie a far fronte ai possibili incrementi della domanda. Questo significherebbe dover mettere in campo livelli di energia elevatissimi, ben superiori rispetto a quelli un cloud provider, che può permettersi di garantire la stessa resilienza ma con risorse complessive inferiori.

Possiamo quindi affermare che se a una maggiore digitalizzazione corrisponde un maggior consumo, un modello basato sul cloud consente di ottimizzare le risorse energetiche.

Va inoltre considerato il fatto che i data center dei grandi cloud provider sono tipicamente tecnologicamente più all’avanguardia dal punto di vista dei consumi e dell’efficienza energetica rispetto ai data center delle singole aziende, che non possono permettersi di rinnovare il parco tecnologico con la stessa frequenza.

– La cybersecurity occupa un ruolo sempre più importante nei meccanismi di gestione delle società e nei piani di sviluppo delle aziende. Qual è il Vostro punto di vista?

La sicurezza informatica si divide in due livelli: da un lato la cosiddetta sicurezza “perimetrale” (che protegge l’azienda dagli accessi non autorizzati), dall’altro la sicurezza dei dati.

È su questo secondo aspetto, molto vicino al concetto di data governance, che Denodo interviene e gioca un ruolo di primaria importanza. All’interno di ogni azienda, infatti, è necessario implementare policy diverse in base ai livelli e ai ruoli aziendali, così da garantire che chi accede ai dati abbia in effetti tutte le autorizzazioni necessarie per farlo. È qui che si gioca quell’equilibrio perfetto tra rendere disponibili i dati per tutti coloro che ne hanno bisogno (secondo una logica di democrazia del dato) e fare al contempo in modo che ogni utente possa consumare solo i dati per i quali è autorizzato a farlo.

In tale dinamica, il già citato livello di disaccoppiamento logico rappresenta un indubbio vantaggio: eliminando la necessità di copiare i dati solo per renderli integrabili, si riducono anche i punti di accesso e si aumentano indirettamente i livelli di sicurezza (ogni volta che si duplica un dato, infatti, si crea una nuova potenziale breccia per i cybercriminali e si aumentano i livelli di rischio, perché assicurarsi che ogni punto di raccolta dei dati implementi gli stessi livelli dei sistemi sorgente può essere complesso).

Soprattutto nel mondo della PA, dare la possibilità a chi ha la responsabilità del dato di definire delle regole è di importanza critica. Si tratta di un aspetto della sicurezza che di norma non si tende a tenere in considerazione, ma che è fondamentale per garantire che l’utilizzo dei dati sia coerente con le specifiche di ciascuna organizzazione.