Iconsulting nasce ventidue anni fa sui colli bolognesi. Ad avere l’idea dell’azienda sono due soci, Simone Fiocchi e Federico Ravaldi, che provengono da un contesto vicino alla ricerca. Iconsulting ha sin da subito una forte verticalizzazione sulla tematica del data analytics. All’epoca è un po’ una mosca bianca, quando nel mondo IT a farla da padrone è l’applicazione gestionale e temi come il data mesh e il data fabric ancora non si sa cosa siano.
Oggi in Iconsulting lavorano quasi 400 persone e l’azienda ha ampliato il raggio d’azione: tratta infatti tematiche di advisory e aiuta le aziende nella data digital transformation, un percorso di digitalizzazione a tutto tondo per consentire di prendere decisioni data driven e su contenuti informativi derivati dal dato e dalla sua analisi.
Abbiamo incontrato Riccardo Piva, Senior Manager di Iconsulting, per approfondire alcune tematiche inerenti al modo in cui oggi si può ottenere valore dal dato. In particolare, come le aziende possono trarre vantaggio da un framework come il data fabric.
– Come opera oggi Iconsulting?
Siamo dei tecnici, delle persone che entrano in azienda sviluppando codice. Siamo sempre stati abituati ad assumere persone che crescevano organicamente all’interno del contesto aziendale. Anche tutto il management è nato dallo sviluppo del codice e nel tempo si è un po’ trasformato in un’ottica commerciale, ma l’anima rimane sempre tecnica.
Questo ci permette di fornire una consulenza verticale vendor indipendent: ci piace dire che la tecnologia non è un problema. È vero che negli ultimi anni le tecnologie sono diventate tantissime, però noi non siamo vincolati a nessuna. Siamo invece vincolati a un contesto, che è quello della data analytics in tutte le accezioni che oggi può avere, ma trasversalmente rispetto a tutte le tecnologie e metodologie che il mercato propone e utilizza.
– Focalizziamo l’attenzione su un argomento: il data fabric.
Da qualche anno, tutti i mesi nascono nuove aree, tecnologie o metodologie con la parola data davanti. Data fabric è arrivato un po’ in maniera preponderante nel senso che non è una tecnologia. È un framework che si innesta in più contesti tecnologici. È qualcosa di ampio, come lo è il suo alter ego, il data mesh. Sono arrivati insieme, li abbiamo esplorati capendone le differenze e i punti di congiunzione. Infatti, il punto di partenza è molto simile in entrambi e i casi.
Un’azienda come Iconsulting deve poter captare tematiche come queste ed essere in grado di spiegarle ai propri clienti perché molto spesso sono concetti, framework o paradigmi molto teorici. In questi casi, il primo step è cercare le informazioni disponibili in letteratura. Dopodiché cominciamo a parlarne coi clienti e raccogliamo i feedback. Cerchiamo di capire anche come possono essere messi in pratica all’interno di un’organizzazione, come questa può trarne valore e quali sono i punti più interessanti e è più efficaci dal punto di vista della messa a terra.
– Quali sono i clienti di cui parla?
Ci muoviamo sul segmento enterprise perché queste aziende sono quelle che usano di più il dato dal punto di vista analitico. Non ci rivolgiamo, però, a un settore specifico. Ci muoviamo dall’automotive all’healthcare fino alla Pubblica amministrazione e in ognuno di questi contesti abbiamo persone apicali con grande esperienza del mercato e del settore stesso. In Iconsulting ci sono poi figure trasversali tecniche che portano tutta la parte più di delivery, di technicalities all’interno dei vari contesti.
Tuttavia, va sottolineato che l’approccio a paradigmi come il data fabric è molto più ampio rispetto a quello delle tecnologie e non si può parlarne con tutte le organizzazioni: è necessaria una maturità delle aziende perché sono tematiche complesse.
Se ne parliamo ai nostri clienti è perché identifichiamo che all’interno del loro contesto questo tipo di framework può creare dei benefici, può risolvere dei problemi. In quel caso, trattiamo l’argomento cercando di focalizzarci sugli elementi che possono dare un beneficio fin da subito così che sia molto facile da capire.
Ci sono altri contesti dove è lo stesso cliente che dice aver sentito parlare di un certo framework e così ci chiede qual è il nostro punto di vista.
– Ha parlato di trasformazione digitale. Alla base di questo concetto non c’è tanto un acquisto di nuove tecnologie ma un cambio di mentalità per mettere il dato al centro della strategia e quindi muoversi secondo una modalità data driven. Nella vostra esperienza che cultura del dato c’è nelle aziende italiane?
Dipende dal settore, digital transformation di quanto valore effettivamente il dato può portare in termini di informazione e di tecniche evolute. Ci sono ancora contesti, anche enterprise, che sono legati al vecchio modo di gestire il dato dal punto di vista analitico e che quindi fanno fatica a fare quel passaggio. Tuttavia, non siamo più ai livelli di qualche anno fa ed è raro che ci si trovi a dover spiegare perché il dato analitico non deve stare su un sistema transazionale. Oggi abbiamo uno scoglio diverso: riuscire a orientarsi all’interno di un marasma di tecnologie, di paradigmi e di metodologie anche molto diversi tra loro. E anche di figure professionali che hanno competenze comuni ma obiettivi totalmente differenti nell’ambito dell’analisi dei dati, come chi fa, per usare un termine ormai obsoleto, business intelligence e chi i44nvece fa data science.
Però, a prescindere dal settore, mediamente nel segmento enterprise italiano c’è un livello abbastanza alto di conoscenza tra gli interlocutori che comunque capiscono le tematiche. Magari a volte sono semplicemente interessati e hanno solo bisogno di essere orientati nella maniera migliore e di trovare il giusto compromesso perché diventa difficile non tanto capire i concetti ma calarli all’interno della singola realtà aziendale.
– Il data fabric come si colloca in questo contesto?
Come dicevo, oggi ci sono figure professionali differenti, come i data engineer, i data scientist, i data analyst o i business analyst, che hanno scopi e obiettivi diversi all’interno dell’organizzazione, ma che devono riuscire a lavorare all’unisono in un contesto tecnologico estremamente divergente e complesso. Il processo di evoluzione delle organizzazioni ha seguito diverse strade. E questa è stata la base di partenza da cui è scaturita la voglia di razionalizzare e di creare un nuovo cambiamento nel contesto dei dati. È nata la necessità di aggiungere concetti che puntano a fare ordine o semplicemente a rendere più veloci, in termini di time to market, iniziative data driven con dati di qualità e il più possibile non duplicati, con un contenuto informativo facilmente ricercabile e indirizzabile da tutti all’interno di un’organizzazione, che l’informazione all’interno del dato sia consistente e il dato sia qualitativamente allineato con la realtà o l’obiettivo finale del business. E che tutto questo deve succedere molto velocemente e deve rispondere alle esigenze di business data driven.
Il data fabric vuole indirizzare queste tematiche secondo una sorta di evoluzione naturale del logical datawarehouse, il quale utilizzava il dato strutturato, semistrutturato e destrutturato all’interno di ambienti gestiti ad hoc con strumenti specifici e amalgamati attraverso la data virtualization, che poteva creare un ambiente comune a tutti questi mondi molto diversi tra loro in ottica di consumo.
Il tema data fabric è qualcosa che scende nei meandri di questi mondi separati, creando un effetto di collante tecnologico superiore alla data virtualization. È un elemento che cerca di amalgamare tecnologicamente e metodologicamente un insieme di elementi diversi, rendendoli più uniti e più armonizzati. Questo, dall’esterno, li fa vedere come un unico ecosistema.
Un elemento basilare in questo processo è il metadato. Il contenuto informativo del dato permette di rispondere a delle domande, quindi, è l’informazione che serve, ma il metadato riveste un ruolo essenziale per arrivare a ottenere tale informazione.
– In azienda, da una parte c’è chi trasforma un dato grezzo in un dato con l’opportunità di essere lavorato e dall’altra parte c’è chi deve usufruire delle informazioni che si possono estrarre da tale dato. Molto spesso, però, chi fa una cosa non è chi fa anche l’altra. Come si riesce a far lavorare armonicamente le due figure?
Non c’è un modo ottimale, dipende tanto dal contesto in cui ci si muove. Noi cerchiamo di capire le esigenze del business per tradurle nel concreto e nel tecnico attraverso il dato. Alcuni task sono ripetibili e automatizzabili grazie all’intelligenza e ai metadati. Ciò permette di creare più valore con un dato mediamente di qualità perché anche i meccanismi di data quality check possono essere automatizzati. E il fatto di far parlare tutti i sistemi in maniera abbastanza uniforme consente di creare un valore più trasversale rispetto a tutti i mondi aziendali, anche senza un virtualizzatore on top.
Questo effetto di liberare spazio e rendere ancora più automatizzato e più intelligente il lavoro che viene fatto all’interno della data platform va a beneficio delle figure di business che così possono dedicare il loro tempo non a far quadrare i dati o a dover caricare enormi tabelle, cosa che purtroppo succede ancora molto spesso, ma a capire i processi e a ottimizzarli il più possibile. E ciò significa anche ottimizzare i costi.
– Si è parlato di self service. Si riesce veramente in azienda ad avere un business che produce da sé dei report senza dover ricorrere all’IT e quindi allinearsi ai suoi tempi?
Software come Business Object o Microstrategy sono prodotti enterprise che ragionano con un modello semantico di dati molto complesso, trasversale e completo dell’azienda. Perciò sono molto più centralizzati nell’utilizzo e per questo sono lenti in termini di evoluzione e manutenzione, ma coprono una sfera molto ampia. Questi venivano utilizzati per il self service, ma in maniera meno dinamica di oggi.
Attualmente, ci sono prodotti di data visualization molto più dinamici, come Power BI per il mondo Microsoft, Tableau o Amazon Quicksight che è nato su AWS. Ci sono tantissimi prodotti di questo tipo che in realtà non lavorano più in modo intensivo sul modello enterprise ma operano su piccoli contesti. Questo ha aiutato molto la self service nell’ottica di data consumption analitica del dato.
Ci sono poi persone tecniche che usano codice Python o codice R per scrivere dei notebook e lavorare sul dato per ottenere grafici di scarsa qualità e tabelle in autonomia. Questi strumenti hanno aiutato molto questo tipo di meccanismo e hanno favorito un cambio di mentalità aziendale.
Nascono però alcuni problemi, come per esempio trovare il dato giusto o anche prendere un dato che non è ancora disponibile. L’idea del data fabric è di semplificare questo processo attraverso l’intelligenza. Ciò può avvenire tramite la next best action o next best recommendation. Per esempio, si potrebbe avere un sistema di intelligenza artificiale che, quando un utente che sta lavorando nel self service crea una nuova dashboard, fornisce suggerimenti in base a ciò che tale utente sta utilizzando proponendo l’informazione che potrebbe essere più utile al tipo di analisi all’interno dello specifico contesto dati o che indica quali sono tutte le informazioni correlate al lavoro che si sta eseguendo. Oppure, anche, magari mostra cosa ha utilizzato un collega della stessa area di business che sta lavorando su tabelle simili.
La self service viene semplificata e offre ancor più valore. Così si riduce il time to market e si arricchiscono la qualità e la completezza delle attività.