Axiante, dati reali e sintetici per l’intelligenza artificiale

L’intelligenza artificiale necessita di molti dati per fornire risultati utili alle aziende. Per avere dati in grandi quantità si ricorre a quelli sintetici.

intelligenza artificiale

Axiante si definisce come un business innovation integrator, una società che propone ai propri clienti soluzioni innovative e che le integra nelle loro architetture. Per illustrare le tematiche più recenti relative all’implementazione dell’intelligenza artificiale nelle imprese e all’importanza dei dati reali e sintetici, il marchio ha organizzato un incontro con la stampa. Hanno partecipato Romeo Scaccabarozzi, Amministratore Delegato, Mirko Gubian, Global Demand Senior Manager and Partner, Antonio D’Agata, Strategic Accounts Director and Partner.

L’adozione dell’intelligenza artificiale nelle imprese: a che punto siamo

Secondo un’indagine di Netconsulting fatta nei primi mesi di quest’anno, circa il 65% delle medie e grandi imprese del nostro Paese, che operano nei settori GDO e retail, industria, trasporti e servizi (nel loro insieme rappresentano il 70% delle realtà produttive italiane), sta ancora valutando l’applicazione dell’intelligenza artificiale, mentre solo meno del 15% circa ha iniziato a implementarla.

L’AI è quindi ancora molto marginale tra le aziende italiane, situazione che riflette la lentezza delle imprese nostrane ad adottare le nuove tecnologie, come del resto è successo più volte in passato, per esempio con il metaverso. Questo perché le società hanno bisogno di concretezza, di vedere l’AI applicata al loro contesto, di poter definire un ROI relativo agli investimenti necessari per portare l’intelligenza artificiale all’interno delle loro strutture. E in effetti un ROI è ancora difficilmente valutabile per quanto riguarda l’AI.

app modernization

Romeo Scaccabarozzi
Ma in quali settori, all’interno di un’azienda tipo, l’AI risulta più utile? Per rispondere in maniera esaustiva possiamo considerare i risultati di uno studio McKinsey, condotto a livello mondiale e pubblicato nel marzo di quest’anno. In base alle informazioni raccolte, i settori aziendali che più beneficiano dell’intelligenza artificiale sono marketing & sales (42%), sviluppo di prodotti/servizi (28%), IT (23%), service operations (22%). Il marketing & sales è il più gettonato perché le imprese vogliono personalizzare il loro rapporto con il cliente (anche quando sono molti), stimolare la fedeltà e analizzare il mercato in profondità. È interessante notare che il settore risk, legal & compliance, sebbene rappresenti solo l’11% in totale, sale al 22% se si considera solo il comparto delle società che operano nei servizi finanziari. Questi ultimi sono sempre ad alto rischio e sono esposti a frodi, quindi l’intelligenza artificiale dà un contributo importante nella riduzione del rischio, con un ROI molto interessante.

L’importanza dei dati, reali e sintetici

L’intelligenza artificiale ha bisogno di una grande quantità di dati e questi sono la base per ottenere risultati affidabili e utili per le aziende. Per avere dati validi e in grandi quantità, si ricorre spesso ai dati sintetici, generati con algoritmi ad hoc a partire da un data set di dati reali ma in numero limitato.

Secondo un’indagine di Gartner, nel 2024 più del 50% dei dati, usati per allenare modelli di intelligenza artificiale, di advanced analytics e di machine learning, è stato generato sinteticamente e, secondo le previsioni, entro il 2030 il 90% di queste informazioni sarà creato in maniera sintetica.

Produrre i data set per via sintetica è vantaggioso nel settore marketing, per esempio, un settore dove i dati devono essere conformi alle normative sulla privacy. Le informazioni di origine sintetica, infatti, sono compliant in maniera nativa, perché sono totalmente anonime pur avendo le stesse caratteristiche dei dati iniziali. Bisogna poi considerare il costo associato all’acquisizione dei dati reali, un costo di solito maggiore di quello legato alla generazione delle informazioni sintetiche.

Da notare che la creazione di dati sintetici non è una pratica recente, ma oggi si usano tecniche più evolute. Se in passato la creazione dei dati era un processo che richiedeva l’intervento di uno specialista che conoscesse a fondo le tematiche riguardanti il tipo di dati da produrre, adesso si usa l’intelligenza artificiale generativa, molto efficace quando si tratta di creare dati in formato tabellare.

intelligenza artificiale

Mirko Gubian
Esistono diversi sistemi per ottenere i dati sintetici: reti GAN (Generative Adversarial Networks), di diffusione, autoencoder variazionali (VAE). Con il GAN due reti neurali sono in competizione, con il secondo sistema si parte da rumore puro per generare l’informazione. VAE consiste in modelli generativi che apprendono le rappresentazioni compresse dei loro dati di addestramento come distribuzioni di probabilità. Tutte queste tecniche hanno una loro controparte tabellare, utile per produrre informazioni in un formato molto comodo quando bisogna alimentare un’applicazione business o un algoritmo predittivo per la manutenzione, per esempio. Sempre secondo Gartner, oggi più del 50% dei dati generati in maniera sintetica è in forma tabellare.

Queste tecniche richiedono però una profonda competenza da parte del data scientist, perché esiste il rischio che un bias presente nel piccolo data set di partenza venga amplificato nel processo di generazione delle informazioni sintetiche. Un altro rischio è che il rumore (dati casuali privi di significato dal punto di vista statistico) sia scambiato per informazioni utili, e che quindi risulti amplificato.

Customer Data Platform e Customer Intelligence

I dati sono alla base di due tecnologie in forte crescita e molto usate nelle aziende. Queste tecnologie sono Customer Data Platform (CDP) e Customer Intelligence. Il loro impiego è fondamentale quando al centro del business è il cliente e la sua gestione risulta complessa, come è il caso del retail, delle banche, delle assicurazioni, della sanità.

CDP e Customer Intelligence sono complementari ma distinti. Per Customer Data Platform si intende una piattaforma che raccoglie, unifica e organizza i dati che provengono da fonti diverse, sia fisiche sia digitali. Tutte queste informazioni sono quindi riunite in un unico profilo cliente. Customer Intelligence serve invece per analizzare i dati raccolti da CDP, per estrarre gli insight utili al fine di segmentare al meglio l’informazione, prevedere i comportamenti, ottimizzare le campagne, ridurre il tasso di abbandono. Si tratta in pratica di una tecnologia orientata al marketing.

cloud

Antonio D’Agata
Alla base di queste due tecnologie c’è l’intelligenza artificiale, che è utile, nel caso di CDP, per riconciliare i dati che provengono da fonti diverse (identity resolution). Questo grazie al machine learning, che permette di riconoscere in maniera probabilistica che più dati appartengono alla stessa persona. Per esempio in base a modelli comportamentali simili o all’impiego dello stesso dispositivo per immettere le informazioni. L’intelligenza artificiale usata per Customer Intelligence prende questi dati e ne ricava indicazioni per migliorare il rapporto con il cliente, per esempio incasellandolo in una determinata categoria e ottimizzando il customer journey.

Oggi le aziende sono sempre più spinte a usare CDP e Customer Intelligence, sia per fornire offerte molto personalizzate sia per gestire i dati secondo le normative GDPR e della privacy. Ma esiste un’interessante differenza tra il mercato globale e quello italiano. Secondo una ricerca di The Business Research Company, il mercato globale CDP nel 2024 è valso 5,7 miliardi di dollari, e si prevede che raggiungerà i 24 miliardi entro il 2029, con un tasso di crescita annuo del 34%. In Italia, invece, secondo Gartner, il mercato è ancora limitato, ma crescerà nei prossimi anni grazie agli investimenti che le aziende – soprattutto nei settori retail, bancario, assicurativo e sanitario – faranno su due fronti: il cloud e l’AI generativa.