Le aziende non utilizzano in modo efficace il 32% dei propri dati. Lo rivela una ricerca condotta da Cloudera a livello EMEA tra 850 responsabili delle decisioni IT (ITDM) di aziende con almeno 1.000 dipendenti.
In Italia, in particolare, il 76% degli intervistati concorda sul fatto che la presenza di dati in diversi ambienti cloud e on-premise rende complesso estrarne valore. Tuttavia, più di due terzi (67%) li archivia in un ambiente ibrido, ovvero utilizza sia il cloud on-premise/privato sia il cloud pubblico. Inoltre, quasi sette organizzazioni su dieci (68%) hanno adottato un modello multi-cloud e si avvalgono di due o più hyperscaler.
“Questo studio – afferma Fabio Pascali, Regional Vice President Italy di Cloudera – ha analizzato due aree: quella del mondo dati e quella del mondo cloud. Siccome siamo un punto di trasformazione dell’infrastruttura e di cambiamento, ci intersechiamo spesso con il cloud”.
Molti portano i dati sul cloud, ma è sempre più diffusa la reimpatriation
Il 97% degli ITDM prevede di migrare un maggior numero di dati nel cloud nei prossimi tre anni, citando come fattori trainanti una migliore accessibilità (52%), l’ottimizzazione dello storage e del backup (51%) e la riduzione dei costi (36%). Mentre solo l’1% ha rimpatriato i dati in sede negli ultimi 12 mesi, il 78% prevede di farlo per alcune tipologie nei prossimi 36 mesi. Le preoccupazioni relative ai dati e alla conformità (59%), i timori di cloud lock-in (53%) e le sfide relative alla complessità e all’integrazione dell’IT (50%) sono le principali ragioni per cui le organizzazioni sono restie a spostare altri dati in cloud. Inoltre, il 49% degli intervistati afferma che i problemi di prestazioni nell’elaborazione di grandi insiemi di dati in tempo reale rappresentano un altro ostacolo significativo alla migrazione al cloud.
“Il 97% delle aziende – precisa Pascali – dichiara di voler portare ulteriori dati nel public cloud nei prossimi tre anni. Al tempo stesso, il medesimo campione di aziende afferma che riporterà il 78% dei workload on prem. La spiegazione sta nel fatto che le aziende e i system integrator man mano che arrivano a un punto di maturità e conoscenza dei pregi e dei limiti del cloud esegue delle attività di fine tuning”.
Serve la data analytics, ma si usano troppi strumenti
Per estrarre più valore dai propri dati, le aziende stanno abbracciando sempre più spesso la data analytics. Sono i reparti IT (60%) ad avere la maggiore necessità di questa tipologia di strumenti, seguiti da finance (51%), vendite (50%), marketing (50%), operation (41%) e risorse umane (41%). Tuttavia, il 68% degli intervistati ritiene che la propria organizzazione disponga di un numero eccessivo di strumenti di analisi dei dati ed è preoccupato per la dispersione, mentre solo la metà (52%) è pienamente convinto di sapere quanti strumenti di data analytics sono stati implementati. Coloro che hanno questa certezza, dichiarano di utilizzare cinque strumenti diversi.
La sfida dei silos di dati
Nel complesso, la ricerca rivela che i silos di dati continueranno a rappresentare una sfida per molte organizzazioni: il 58% degli ITDM afferma che i dati isolati impediscono alla loro impresa di prendere decisioni in tempo reale. Mentre il 59% del campione ritiene che la propria organizzazione abbia perso denaro perché non è in grado di prendere decisioni rapide a causa dei silos di dati.
In tal senso, Pascali precisa: “Abbiamo fatto tre importanti annunci negli ultimi mesi. Uno riguarda la data observability, ovvero la capacità dei clienti di guardare all’interno della piattaforma Cloudera per capire come poter migliorare le performance in un contesto distribuito”.
La soluzione Cloudera Observability aggiunge nuove funzionalità all’open data lakehouse implementato con Cloudera Data Platform (CDP), fornendo insight pratici su dati, applicazioni e componenti dell’infrastruttura al fine di ottimizzare i costi, risolvere automaticamente i problemi e migliorare le prestazioni. La governance finanziaria e le FinOps consentono di gestire il budget su CDP per evitare sforamenti e consentire proiezioni di capacità a fini di pianificazione.
Un’altra novità riguarda il rilascio di Iceberg per CDP. Si tratta di una piattaforma open source in formato tabellare che consente di portare le funzionalità transazionali e relazionali tipiche del data warehouse all’interno del mondo data lake e viceversa al fine di avere un unico ambiente, appunto un data lakehouse, che consente di fare interrogazioni classiche BI e data scientist.
La terza novità riguarda LLM Augmented with Enterprise Data, un blueprint per Large Language Model (LLM) pronto all’uso che aiuta le imprese a utilizzare l’AI generativa a partire dai dati disponibili all’interno del proprio contesto aziendale.
Come un cloud service provider
“Oggi – conclude Pascali – gestiamo più di 25 exabyte di dati dei nostri clienti all’interno della nostra piattaforma. Un valore che ci pone a livello dei cloud provider e che ci consente di fare innovazioni e capire la scalabilità di determinate architetture”.