Chief Information Officer, evoluzione e competenze

Toby Balfre, VP Field Engineering EMEA di Databricks

Ormai non è più un segreto: molte aziende trovano difficoltoso abbandonare i sistemi IT tradizionali a favore di architetture di dati più moderne.  Ma come ogni relazione complicata che si rispetti, la sfida più grande è proprio quella di conquistare la fiducia necessaria per intraprendere la separazione. Per tutte le aziende italiane che necessitano di una spinta in più o di una motivazione definitiva per abbandonare i propri sistemi di legacy come Apache Hadoop.

Migrare verso architetture di dati più moderne

Toby Balfre, VP Field Engineering EMEA di DatabricksI sistemi tradizionali possono rivelarsi complessi da gestire ed essere molto costosi, perché richiedono un’elevata concentrazione di risorse e sono onerosi da gestire. A fronte della crescita esponenziale dei dati in molte aziende e della conseguente necessità di condurre analisi più avanzate come il machine learning e l’intelligenza artificiale. I progetti di advanced analytics distribuiti su software obsoleti come Hadoop, sono destinati a scomparire.

Nel confrontarsi con le opinioni di molti CIO, è evidente che le carenze di Hadoop sono riconosciute e comprese. Secondo uno studio globale condotto da Databricks e dal MIT e frutto di interviste con Chief Data Officer, Chief Analytics Officer e Chief Information Officer, ben il 50% ha dichiarato di essere attualmente impegnato nella valutazione o nell’implementazione di una nuova piattaforma di dati per affrontare le sfide attuali.

Al passo con il Cloud

Un problema comune consiste nel definire quali sono le architetture di dati alternative disponibili. Oltre alle modalità con cui i CIO possono compiere la migrazione nel modo più semplice possibile. Muovere i primi passi nell’on-premise può risultare un compito scoraggiante. Se una nuova migrazione viene reputata non fruttuosa o eccessivamente lenta, le conseguenze potrebbero essere molto onerose.

Come si presenta il futuro

Il futuro si muove nella direzione di architetture dati e intelligenza artificiale altamente scalabili e semplici da amministrare. In questo modo sarà possibile per i data team concentrarsi sulla creazione di casi d’uso e non sulla gestione dell’infrastruttura. Al contempo, dovrebbe fornire una soluzione affidabile per gestire qualsiasi tipo di dato, abilitando casi d’uso e analytics in tempo reale.

Le architetture di dati più moderne e migrare alla piattaforma lake house

La soluzione è rappresentata dalle piattaforme lake house. Esse forniscono un livello transazionale strutturato a un data lake. Così da ottimizzare prestazioni, affidabilità, qualità e scalabilità in modalità analoghe a quelle di un data warehouse. Permettendo di realizzare molti dei casi d’uso che tradizionalmente avrebbero richiesto data warehouse legacy con il solo data lake. La migrazione a una piattaforma lake house sembrerebbe l’ideale. Molti CIO però si chiederanno quanto sia facile arrivare a questo punto. Vediamo quindi alcuni dei semplici passi da compiere nella migrazione dai sistemi legacy.

1 Confrontarsi

Le organizzazioni che desiderano intraprendere una migrazione di successo dovrebbero organizzare audit interni per comprendere perché l’azienda vuole migrare. Chi sarà necessario coinvolgere e come la migrazione si inserisce in una strategia cloud globale. Per realizzare una migrazione di successo, i team che si occupano dei dati, i CIO e CDO sono chiamati a confrontarsi in modo continuativo. Alcune domande logiche da cui partire sono: “A che punto siamo ora?” e “Dove dovremmo essere?”. Questa fase iniziale di sperimentazioni e creazione di nuove conoscenze, consentirà ai team di valutare lo stato dell’infrastruttura attuale e pianificare la nuova.

2 Eseguire una valutazione della migrazione

Qualsiasi progetto di migrazione non sarà un successo immediato. L’approccio più realistico per molti sarà quello di migrare progetto per progetto. Le aziende dovranno individuare i progetti in esecuzione e, in molti scenari, dovranno anche costruire un business case per qualsiasi migrazione. Calcolando, ad esempio, il costo di una nuova piattaforma lake house.

3 Definire correttamente gli elementi tecnici

Nella fase più operativa e “tecnica”, le aziende devono analizzare l’architettura di destinazione. Oltre a assicurarsi che sia in grado di supportare le esigenze aziendali a lungo termine. In genere, questo processo comporta la mappatura di tecnologie precedenti o la loro ottimizzazione. Similmente, le organizzazioni sono chiamate a valutare come migrare dati e carichi di lavoro nel cloud. Infine dovranno condurre valutazioni, demo e production pilot per l’adozione di una nuova architettura di dati.

4 La fase finale: esecuzione della migrazione

L’ultimo aspetto da considerare è la fase di esecuzione vera e propria. La migrazione non è semplice. Tuttavia una buona esecuzione è essenziale per la rapidità con cui l’organizzazione può iniziare a scalare le proprie pratiche di analytics. Riducendo i costi e migliorando la produttività dei data team. Per garantire continuità, le aziende dovrebbero prendere in considerazione l’esecuzione dei carichi di lavoro. Sia sul sistema precedente che sulla nuova architettura dati, assicurandosi che tutto sia perfettamente uniforme.

Perché è meglio migrare verso architetture di dati più moderne

Con il tempo, si potrà optare per una migrazione totale a una nuova architettura dati e dismettere quindi il caso d’uso dalla struttura precedente. Le organizzazioni invitano i propri team a fare maggior uso e beneficiare delle potenzialità di dati e intelligenza artificiale. Così è arrivato il momento per le aziende italiane di non limitarsi solo a considerare l’adozione di una nuova architettura dati. Ma di avere la consapevolezza di poter finalmente fare questo passo e agire. Quanto più a lungo le organizzazioni aspetteranno a compiere questa mossa, tanto più dolorosa sarà la sensazione di non riuscire a tenere il passo con le crescenti aspettative dei clienti e le pressioni della concorrenza.