Strategie data-driven: il dato in quanto base sia del sistema informativo sia di quello formativo è stato oggetto di un incontro organizzato dalla società Denodo e che ha avuto come protagonista una platea molto variegata, composta da docenti universitari, analisti e responsabili aziendali. Più in dettaglio, stimolati dalle domande di Andrea Zinno, data evangelist per l’Italia di Denodo, hanno fornito le loro opnioni Silvana Castano, Professor of Computer Science dell’Università degli Studi di Milano; Raniero Romagnoli, Chief Technology Officer di Almawave; Daniele Bobba, Senior Partner di Deloitte Consulting, Big Data & IDO Leader; Riccardo Torlone, Docente Universitario dell’Università degli Studi Roma Tre; Gabriele Obino, Regional Vice President & General Manager Sud Europa e Medio Oriente di Denodo. Ecco quanto emerso.
– È innegabile che i dati stiano assumendo un ruolo sempre più importante. Come il mondo universitario sta percependo questa accelerazione?
Silvana Castano – L’offerta formativa del nostro dipartimento è piuttosto variegata. Abbiamo quattro corsi di laurea triennale: informatica, informatica per la comunicazione digitale, informatica musicale e sicurezza dei sistemi e delle reti informatiche. A questi si aggiungono due corsi di laurea magistrale in computer science e cyber security. Da tre anni, abbiamo arricchito l’offerta formativa, che era molto improntata alla computer science, con le nuove lauree in data science for Economics e intelligenza artificiale, che vedono la partnership interateneo con Pavia e la Bicocca. Ci sono anche una laurea triennale e due magistrali in artificial intelligence. L’ultima, quella più human centric, parte quest’anno. È, quindi, evidente come il tema dei dati sia centrale all’interno del percorso formativo. In realtà, lo è sempre stato, ma è profondamente evoluto per cui abbiamo inserito curriculum specifici in data science vista l’importanza del dato nel business e nei vari ambiti applicativi, come per esempio il medicale.
Ci sono poi i temi della governance e della cybersecurity. Quello che abbiamo sperimentato direttamente nelle nuove lauree, e anche dai colleghi, che mai come ora in passato ci sono stati chiesti corsi di data management e di coding. Esiste veramente una percezione dell’importanza del dato non solo in chi si occupa di informatica ma anche in altri ambiti.
– Come cambiano le esigenze di chi ha a che fare tutti i giorni con i dati?
Gabriele Obino – I dati ci sono da sempre, ma c’è stata un’evoluzione che è avvenuta a ondate. Prima si è trattato dei database, poi dei content tool per fare l’analisi dei dati, quindi del datawarehouse e successivamente del data Lake. Il punto è che i dati crescono come l’entropia dell’universo a una velocità in impressionante. Però, il dato di per sé non ha alcun valore. Se non si riesca a collegarlo al contesto in cui lo si vuole usare non serve a nulla.
Il data management nasce dal fatto che siamo affogati dai dati e c’è una necessità impellente di estrarre del valore. E anche se l’intelligenza artificiale aiuta, rimane il fatto che le persone devono capire qual è il significato del dato. E per capirlo forse è ora di smettere di copiare i dati in modo indiscriminato dall’on prem al cloud, da un cloud a un altro cloud o da un’applicazione a un’altra. Bisogna contestualizzare sul significato, focalizzarsi sui metadati che aiutano a dare un significato ai dati, a costruire un contesto intorno al quale poter capire veramente qual è il fenomeno che si sta analizzando. Quello che manca, secondo me, è portare una capacità veramente elevata di interpretazione perché questo poi aiuta tantissimo le aziende e il business qualunque sia il contesto.
– Voi siete dei grandi utilizzatori di dati. Quali attenzioni e cautele dovete avere quando usate i dati?
Raniero Romagnoli – L’ecosistema è complesso perché la normativa non è una, ma tante. E continuano ad aumentare. Sempre di più si prova anche a normare intelligenza artificiale. Nel caso dell’utilizzo di dati per per addestrare un modello nel rispetto del GDPR abbiamo dei confini abbastanza stretti che ci costringono a usare accortezze molto ampie.
Poi ci sono tecniche, specialmente all’interno dell’intelligenza artificiale, che permettono di sviluppare ulteriori algoritmi o approcci per segregare, per mascherare per fare addestramenti federali o differiti. Queste strutture algoritmiche ci supportano nel fare gli addestramenti. I dati che poi usiamo se rimangono a casa del cliente, e fermiamo per la responsabilità sul trattamento a casa del cliente, tutto è più semplice. Però, se mettiamo il dato su una piattaforma è ben diverso: non possiamo usare i dati del cliente a meno che il cliente stesso non ceda il dato per addestrare il modello con tutte le clausole che sappiamo sulla privacy. Quindi è un processo molto articolato, non c’è chiarezza sull’AI Act né sulla direttrice che prende, sebbene poi alcuni pillar sono molto chiari su quello che vorrebbe fare l’Europa nei confronti dell’intelligenza artificiale.
– Secondo il punto di vista di Deloitte, qual è la posizione delle aziende nei confronti dell’intelligenza artificiale?
Daniele Bobba – Il valore dei dati, cioè il fatto di poter essere credibile e avere un’informazione data reliable, è fondamentale. L’intelligenza artificiale è la punta di un iceberg che implica la comprensione aziendale di una cultura che porta a leggere il dato non come qualcosa di derivato, ma come qualcosa che caratterizza un fatto reale. Nel mondo ideale un processo aziendale è rappresentato in maniera lineare con un sistema che poggia su un database.
Le aziende hanno fame di dati e sono felici di sapere che le università sforneranno un gran numero di esperti in data management e così non ci sarà più la drammatica difficoltà di trovare nuove persone. Abbiamo una richiesta incredibile di esperti: ormai tutte le aziende cross sector stanno intraprendendo percorsi di trasformazione data driven. Ci sono aziende che lo hanno fatto per la loro natura, come quelle del mondo dei servizi finanziari perché devono sottostare a precise normative. Ci sono settori industriali o finanziari che usano l’intelligenza artificiale da decenni ce ne sono altri che ci si stanno confrontando ora.
Penso che l’Italia non si posizioni poi male in ambito europeo. Forse rispetto al mondo americano soffriamo il fatto che noi non abbiamo grosse realtà informatiche, ma molte delle eccellenze sull’intelligenza artificiale sono startup italiane. Nasce però un importante tema etico che porta a chiedere come è stata presa una decisione. Oltre, come detto, al fatto della necessità di sapere se un’informazione è attendibile nel modo in cui è stata definita.
– Quanto è cambiata nel tempo la collaborazione tra università e azienda?
Riccardo Torlone – Devo sfatare un mito quello di un’università arroccata sugli aspetti teorici che non va a guardare il mondo delle imprese. Non è assolutamente così. E non lo è da tanti anni, ma c’è una fortissima attenzione a quello che succede nel mondo delle imprese, nei mercati e su quello che si aspettano le aziende dalla formazione. Ai numerosi corsi di base, si affianca, soprattutto nella laurea magistrale, un’offerta molto dinamica. Credo che negli ultimi 10 anni i corsi che noi abbiamo offerto nella laurea magistrale siano cambiati tantissimo e ogni anno introduciamo nuovi corsi che partono naturalmente anche dalle nostre competenze, dalle nostre conoscenze e fanno quello che il mondo dell’impresa si aspetta. Per esempio, abbiamo attive tante iniziative che supportano l’imprenditoria giovanile e tutto quello che porta al mondo delle start up. Abbiamo anche un incubatore all’interno del nostro dipartimento. Organizziamo anche incontri tra studenti e aziende.
Gabriele Obino – Denodo nasce in ambito universitario, all’università de La Coruña, da un’idea del professore Angel Viña che immaginò una strategia di integrazione dei dati basata sulla virtualizzazione, una strategia in cui gli utenti potevano integrare i dati senza replicarli. Nel tempo abbiamo sempre mantenuto un contatto diretto con il mondo accademico tant’è che ha lanciato il Denodo Academy Program con cui cerca di creare il prima possibile una sorta di collegamento tra università e azienda offrendo agli studenti interessati la nostra tecnologia e nostra competenza.
– Che rapporto c’è tra i dati e la sostenibilità?
Gabriele Obino – È un tema di grande attualità e rilevanza. Dati e sostenibilità non sembrano correlati, ma non è assolutamente così. È importante poter produrre in modo sostenibile. Siccome è un tema nuovo è cross disciplina. Per avere un business sostenibile, la aziende mettono assieme dati provenienti da molteplici sistemi e, quindi, hanno anzitutto la necessià di capire di quali dati hanno bisogno. Le informazioni nascono dal contesto all’interno del quale i dati assumo un significato. Invece di parlare di dove sono memorizzati i dati si dovrebbe parlare di quali informazioni servono, modificando in questo modo l’approccio da bottom-up in top-down.
Andrea Zinno – C’è poi anche un aspetto meno affascinante che riguarda il modo con cui si gestisce il ciclo di vita del dato. Siamo abituati a replicare i file, così i dati proliferano e sono memorizzati su sistemi che consumano energia, ma solitamente non ci si pensa. Quindi, il fatto che siano nate architetture che consentono di prendere il dato dove si trova senza doverlo ogni volta replicare porta un’efficienza complessiva e ha anche un impatto sul consumo di risorse (e quindi sull’ambiente). Infatti, ogni volta che si sposta un dato, al di là delle implicazioni sulla sicurezza e sulla governance, si consuma energia.
Raniero Romagnoli – Parlando di ESG, c’è una normativa che già dal 2023 obbliga le grandi aziende, e dal 2026 anche le piccole e medie imprese, a fare bilanci di sostenibilità. Purtroppo, i framework sono ancora troppi e non ce n’è uno unico per questa indicazione.
Da sottolineare poi il consumo di energia che richiede l’intelligenza artificiale. Solo per l’ultimo addestramento di ChatGPT tre sono stati spesi 4,5 milioni di dollari e l’operazione ha richiesto 1 milione di ore di utilizzo delle GPU. Questo equivale a decine di tonnellate di CO2 immesse nell’ambiente. E anche quando si fanno domande a ChatGPT si hanno consumi importanti. Per cui, 3, in molto casi si può fare riferimento ai modelli classici, come per esempio la regressione lineare, che sono altrettanto efficaci ma hanno consumi molto inferiori.
Silvana Castano – In ambito accademico, e più in generale nella Pubblica amministrazione, abbiamo il bilancio di genere. È un documento in cui dobbiamo indirizzare anche i temi della sostenibilità, dell’inclusività e dell’uguaglianza di genere, avvalorando le politiche e le azioni messe in atto per garantire anche il benessere della comunità. Riguardo la didattica, dallo scorso anno abbiamo un nuovo corso di laurea magistrale “La sostenibilità delle risorse naturali” che tocca proprio tutti questi temi. Quando ci sono degli insegnamenti con un sillabus che parla di sostenibilità, di inclusione o di basso impatto ambientale tali temi diventano un importante percorso formativo, che può risultare interessante anche per un informatico.