Cloudera: l’AI cresce, ma i dati sono troppo frammentati

Sulle criticità relative all'adozione dell’AI, le preoccupazioni delle aziende sono legate soprattutto a due fattori: i costi e la sovranità o sicurezza del dato.

cloudera

Il panorama dell’intelligenza artificiale continua a essere al centro dell’attenzione per le imprese di tutto il mondo, ma la sua industrializzazione si confronta con una serie di sfide strutturali e strategiche. Prima fra tutte la qualità e la disponibilità dei dati, che sono la base su cui sviluppare strategie di AI. Attraverso la ricerca The Evolution of AI: The State of Enterprise AI and Data Architecture condotta a livello mondiale su oltre 1.500 leader IT, Cloudera ha tentato di tracciare un quadro dettagliato dei principali ostacoli che rallentano la piena capitalizzazione del potenziale dell’AI.

Un elemento costantemente monitorato, e che si conferma sempre un motivo di discussione e di riflessione, è la visibilità dei dati all’interno delle aziende. “I risultati continuano a essere piuttosto disarmanti – ha commentato Fabio Pascali, Regional Vice President Italy di Cloudera –. Ancora quest’anno solamente il 9% delle aziende a livello mondiale dichiara di avere piena visibilità dei propri dati“. Questa scarsa consapevolezza sul proprio patrimonio informativo è cruciale, considerando che l’AI stessa “si basa sui dati per fare training con modelli e c’è piena integrazione tra le piattaforme di dati e le piattaforme AI“.

Un problema sostanziale: la data integration

L’origine di questa limitata visibilità, dichiara circa il 37% delle aziende, è principalmente un persistente problema di data integration. Le organizzazioni continuano a operare in modalità a silos, sia verticalmente per specifiche applicazioni di business sia orizzontalmente, a livello di infrastruttura (logiche cloud verso multicloud oppure on-premise). Piuttosto che risolta, questa frammentazione, rischia di essere amplificata, dall’avanzamento tecnologico. A riguardo Pascali afferma che “stanno nascendo molteplici soluzioni iperverticali di AI, che sbriciolano ancora una volta il dato, i modelli e gli utilizzi, perdendo di efficacia“.

Dal cloud si torna all’on-premise

L’analisi della ricerca di Cloudera si è poi focalizzata sulla distribuzione dei workload, rivelando un elemento un po’ in controtendenza. Si è riscontrato, infatti, uno spostamento di alcuni carichi di lavoro dal public cloud verso l’on-premise o private cloud. L’uso del public cloud ha registrato una diminuzione dal 59% al 52%, mentre l’on-premise è aumentato dal 19% al 24%. Questo shift, che l’indagine lega anche alla crescente adozione dell’AI, suggerisce una fase di riconsiderazione strategica delle architetture IT.

Le preoccupazioni sull’adozione dell’AI

Sulle criticità relative all’adozione dell’AI, le preoccupazioni delle aziende sono legate soprattutto a due fattori: i costi e la sovranità o sicurezza del dato. In particolare, il 50% delle aziende manifesta timori sul fronte sicurezza in riferimento al training dei modelli. I clienti individuano due momenti delicati: il primo è il training stesso, che spesso richiede di “esportare dei dati verso un modello esterno, esponendo quindi l’azienda a condividere tali dati“. Il secondo elemento, strettamente legato all’AI generativa, è il prompt, cioè quanto si trasmette al modello esterno. Se tale prompt contiene informazioni sensibili – come può accadere in ambito healthcare dove si possono veicolare dati anagrafici e relativi a patologie – il rischio è di condividerle al di fuori del perimetro di sicurezza aziendale. Questo aspetto spinge le aziende a usare una significativa cautela.

La questione costi è strettamente connessa al modello di pricing applicato dalle piattaforme as-a-service, spesso basato sul consumo e può portare crescite esponenziali. Al contrario, le soluzioni basate su infrastruttura (fisica o in cloud) tendono a presentare costi più asintotici, con una stabilizzazione successiva alla fase iniziale di investimento. Aspetto questo che si configura come discriminante per le aziende che puntano all’industrializzazione delle applicazioni AI su vasta scala.

La situazione in Italia

Il contesto italiano rispecchia queste dinamiche globali, con una forte attenzione ai temi di sicurezza e costo e, in particolare, al concetto di private AI. In Italia si osserva “sempre più una spinta molto forte per capire dove è utile utilizzare un approccio aperto, quindi verso servizi public, dove invece è più interessante valutare un private service“.

Comune di Milano Cloudera intelligenza artificiale Fabio Pascali, Regional Vice President per l’Italia, Grecia e Cipro

Sebbene molti clienti abbiano avviato sperimentazioni con approcci as-a-service su dati poco sensibili, il passaggio alla fase di industrializzazione è percepito come “la fase più delicata”. Come sottolineato da Pascali, “molti hanno preso una pausa di riflessione sia a causa dei costi sia per aspetti inerenti al livello di sensibilità dei dati“.

In questo scenario, l’offerta di piattaforme indipendenti dall’infrastruttura, come è il caso di Cloudera, offre l’opportunità di utilizzare l’AI dovunque. Questo concetto di AI everywhere risponde all’esigenza di scelta: le aziende possono optare per il public cloud per la facilità e velocità di sviluppo su dati meno sensibili, oppure per un contesto completamente securizzato, che rientra nelle logiche di Private AI, Secure AI o Sovereign AI. In quest’ultimo caso, è possibile realizzare l’intera piattaforma “all’interno del perimetro di sicurezza aziendale rovesciando il paradigma per cui “non esce nulla sia per il training dei modelli sia per la loro execution” integrando algoritmi esterni come quelli open source (per esempio Hugging Face) o i modelli del catalogo Nvidia.

Estremamente complesso il calcolo del ROI

Riferendosi ad analisi sui ritorni d’investimento (ROI), Pascali ha evidenziato che i costi e gli investimenti necessari per partire in scala non generano ritorni se l’approccio è indiscriminato. Tuttavia, “lo studio evidenzia che nei casi in cui si riesce a centrare l’obiettivo di ROI per una AI specifica, il ritorno è importante“. Questo rafforza la necessità di una scrupolosa analisi degli use case, poiché “l’AI non si può mettere a pioggia su tutto“.  L’obiettivo dovrebbe essere riuscire a capitalizzare l’investimento su molti use case attraverso il modello infrastrutturale più vantaggioso.

Il ruolo fondamentale dell’open source

Cloudera si concentra fortemente sul valore dell’open source, che viene addirittura definita una ricetta magica per la sovranità digitale. Però è pragmatica: riconosce che è impossibile raggiungere la sovranità completa sulla componentistica fisica di base, come i chip. Tuttavia, sottolinea che l’uso dell’open source è fondamentale per costruire gli strati superiori della tecnologia, ovvero la piattaforma dati o la piattaforma di intelligenza artificiale. È qui che si può esercitare un controllo significativo.

È sempre più il business a guidare l’adozione dell’AI

Dal punto di vista della governance, Yari Franzini, Group Vice President Southern Europe di Cloudera, ha notato un progressivo affinamento nella capacità di valutare il ROI dell’AI, pur riconoscendo che “oggi non esiste ancora un’analisi specifica che guida i progetti“. Il bilanciamento tra esigenze infrastrutturali e quelle del business owner è nettamente spostato: “Se guardiamo l’AI, questo bilanciamento è posizionato sul business che guida sempre di più”. Di conseguenza, gli sforzi di relazione si concentrano sempre più sui decision maker del business.

Cloudera Connected Manufacturing

La questione competenze e il timore delle allucinazioni

Franzini ha espresso un’osservazione critica relativamente al contesto italiano. Ha infatti evidenziato che, “nonostante una buona competenza a livello tecnologico mancano una competenza manageriale e una visione che riescano ad abbinare il quadro normativo da una parte, la strategia dell’azienda e lo scenario competitivo dall’altra”. Questa carenza genera “un po’ di confusione, ostacolando la capacità di operare in un’attività distribuita”.

Un timore specifico dell’AI evidenziato è quello legato alle allucinazioni nell’adozione degli LLM (Large Language Models), che sta portando a un interesse crescente verso gli SLM (Small Language Models) al fine di limitare l’esposizione al rischio e i “potenziali e importanti costi legali che ne potrebbero derivare”. Franzini ha però sottolineato che in questo quadro complesso “l’adozione dell’AI non è una scelta, ma una necessità forte per la competitività“.

Un elemento incoraggiante riguarda la significativa crescita delle competenze specialistiche nel campo dell’intelligenza artificiale nel nostro Paese, evidenziata dalla comparsa di figure come il Chief AI Officer (CAIO), che opera in stretta sinergia con il CIO. Per quanto riguarda la sensibilità verso il tema della sovranità del dato, i settori più attenti rimangono quello pubblico, l’area della finanza e l’healthcare.

Per ridurre la complessità, arriva l’AI in a Box

Secondo Cloudera, per facilitare concretamente l’adozione della Private AI a livello infrastrutturale, si può agire su due fronti: da un lato, l’abbassamento dei costi hardware, dall’altro sulla semplicità. Rientrano in quest’ambito iniziative come AI in a Box, una reference architecture nata dalla partnership strategica con Dell e Nvidia che intende rispondere alle domande fondamentali delle aziende su come allocare le risorse, che Pascali ha riassunto efficacemente: “Cosa mi serve? Ma quanto mi costa? Quindi cosa devo mettere a budget?“. Questa soluzione preconfezionata mira, dunque, a semplificare l’implementazione dell’AI in ambienti privati e protetti.

L’obiettivo strategico, come sintetizzato da Pascali, è assistere i clienti verso la servitizzazione di un prodotto. Questo processo è favorito da un mercato italiano in forte espansione, all’interno del quale Cloudera continua a crescere in maniera “costantemente double digitsia negli ambienti on-premise sia nel public cloud. La misurazione di questa crescita non si basa solo sugli ordini acquisiti, ma anche sull’utilizzo effettivo e continuativo dei servizi in cloud da parte degli utenti.