Oggi l’artificial intelligence (AI) è sicuramente uno degli argomenti inerenti al mondo IT più discussi. Le opportunità che offre aumentano di giorno in giorno, con una rapidità veramente impressionante. Ne abbiamo parlato con Andrea Cappelletti, il direttore dell’area digital transformation e hyper automation di S2E, azienda che offre principalmente consulenza e servizi gestiti e che ha fatto dell’artificial intelligence uno strumento strategico per gestire i processi aziendali.
Quest’anno avete deciso di puntare in modo più deciso sull’artificial intelligence. Quale è stata la leva che vi ha indotto a tale scelta?
Già in passato utilizzavamo l’intelligenza artificiale in diversi nostri servizi e prodotti. Però non ci eravamo ancora addentrati in modo così determinato all’interno del tema. Quest’anno, con la crescita dell’interesse, abbiamo deciso di investire in maniera significativa e già nei primi giorni di gennaio abbiamo allestito un gruppo di ricerca e sviluppo di una quindicina di persone che ha iniziato a lavorare per capire come potevamo muoverci in questo nuovo ambito.
La domanda che ci siamo posti è stata: “quali complessità dovranno affrontare tra qualche mese i nostri clienti, tipicamente aziende enterprise, quando avranno deciso di utilizzare l’AI perché sarà talmente disruptive da non poterne fare a meno?”. Così abbiamo identificato due macroaree: la prima è quella dei rischi, la seconda riguarda la pluralità e la complessità. È di dominio pubblico quanto l’utilizzo dei componenti di artificial intelligence generativa ponga rischi riguardanti vari fattori, primo fra tutti la privacy. C’è poi una serie di rischi dovuti alle allucinazioni che rendono complesso l’utilizzo della piattaforma, tra cui anche la gestione dei dati in ottica di GDPR e la loro protezione, anche rispetto alle normative ISO. Il nostro obiettivo è, quindi, di pensare alla tecnologia, ma agendo in modo sostenibile.
Riguardo complessità e pluralità, oggi l’offerta di tecnologia è ampia ed evolve molto velocemente. Così, per le aziende scegliere una sola strada potrebbe non essere una saggia decisione: per esempio, puntare solo su Microsoft OpenAI potrebbe precludere l’accesso a una serie di opportunità che potrebbero nascere con l’evolversi della tecnologia.
Come pensate di poter aiutare le aziende?
Abbiamo creato una piattaforma SaaS per risolvere i temi che ho citato. Si chiama Generative Shield, risiede nel cloud di Amazon Web Service e utilizza tutti servizi serverless. Questo la rende altamente scalabile e ci permette di costruire agenti conversazionali esperti basandosi su quello che è diventato un po’ lo standard mondiale, ovvero la Retrieval Augmented Generation (RAG). In pratica, la nostra piattaforma permette a un’azienda di caricare una serie di informazioni di tipo documentale (in formato PDF o di dato). Queste diventano delle knowledge base, dei set di dati che vengono analizzati attraverso algoritmi di document understanding con l’obiettivo di estrarre e mappare all’interno di un database vettoriale le conoscenze di tali basi dati. Queste diventano così ricercabili e fruibili permettendo di fornire informazioni a un Large Language Model al fine di produrre una risposta.
Qual è stata l’idea che vi ha indotto a creare Generative Shield?
L’idea su cui poggia Generative Shield è che per avere un’informazione basata su un LLM un’azienda non può fidarsi solo del training. L’addestramento è fondamentale, ma la riposta data è sempre basata sulla statistica, perciò, può accadere che una risposta che prevede un numero preciso si ottenga il 99% delle volte, ma una volta si abbia un numero differente. L’unico modo per evitare questo rischio è fornire al modello i dati di contesto aziendali corretti su cui produrre una risposta.
Noi costruiamo delle basi di conoscenza dopodiché realizziamo gli intenti, ovvero gli agenti conversazionali. Viene creata un’ampia base di conoscenza e caricata all’interno del sistema. Quindi, usando un linguaggio naturale, descriviamo quali saranno i compiti di detti agenti, come se stessimo spiegando a un nuovo collega quali sono le sue mansioni. Possiamo testare immediatamente il comportamento del componente. Nonostante questo modo di procedere stia oggi diventando un po’ uno standard nell’ambito dell’artificial intelligence, un paio di caratteristiche rendono unica la nostra soluzione. La prima è che non è legata a nessun sistema di ricerca. La piattaforma è modulare e questo ci consente di integrarla facilmente sia con il nostro motore di ricerche semantiche vettoriali, che è stato realizzato utilizzando i componenti di Amazon Web Service (è leggero, economico e molto semplice), sia con le tecnologie più comuni come Elastic o MongoDB. Se un’azienda ha un suo sistema di ricerca vettoriale possiamo usarlo per raccogliere i dati.
L’altro grosso punto di forza della nostra piattaforma e che non è legata a uno specifico LLM. Noi ci basiamo sul mondo di OpenAI per la parte dei modelli GPT 3.5 e GPT 4 e su AWS Bedrock e tutti i suoi modelli disponibili. Quindi abbiamo una piattaforma interamente realizzata in Italia e basata su infrastrutture europee. Il dato non esce in nessun modo dalla comunità europea e con tutti i provider con cui lavoriamo abbiamo opt out certi e garantiti sul fatto che i dati non vengono utilizzati in nessun modo se non per offrire il servizio.
In pratica, abbiamo una piattaforma di artificial intelligence che permette di seguire l’evoluzione della tecnologia e appena c’è qualcosa di nuovo e di sostenibile a livello di compliance lo adottiamo e lo mettiamo a disposizione dei nostri clienti, che sono tipicamente banche e istituzioni finanziarie. Ma stiamo avvicinandoci anche all’healthcare. Pure manifattura, retail e logistica stanno mostrando molto interesse per questa piattaforma.
Voi praticamente specializzate dei modelli, cioè rendete i LLM più adatti alle singole applicazioni…
Il metodo con cui lo facciamo ha dei vantaggi rispetto ad altri sul mercato, perché operiamo senza intervenire sul modello. Non abbiamo bisogno di addestrare il modello e ci stiamo rendendo sempre più conto che non serve farlo per avere buoni risultati a livello di capacità di risposta.
Fondamentalmente, noi costruiamo una dichiarazione di intenti: diciamo a un agente quale ruolo specifico deve svolgere. Utilizziamo dei parametri, che sono praticamente dei tag basati sui dati tecnici dell’integrazione, e decidiamo quali sono le sue basi di conoscenza.
Se si desidera avere un agente capace di parlare di tutto l’interlocutore più adatto è OpenAI, ma se si vuole operare su un processo aziendale, un prodotto o un servizio bisogna usare un agente specializzato, che riesce anche adattare la sua risposta allo stato d’animo di chi ha fatto la domanda. Questo è reso possibile dalla capacità degli LLM di produrre una risposta in base al testo in entrata e al contesto della discussione. La vera novità non è tanto il contenuto, ma la capacità di adattarsi al contesto. Dobbiamo fare in modo che il modello consideri in modo corretto la conversazione e sia adeguatamente istruito. In questo sta il grosso lavoro di tuning: il modello deve poter rispondere alle richieste senza diventare troppo “robotico” e quindi si perda il valore della generazione semantica data da questa nuova tecnologia di artificial intelligence. Deve poi avere un comportamento diverso a seconda dell’interlocutore e del suo stato d’animo.
I dati da usare come risposta devono essere forniti al modello e lui è in grado di prendere tutti i pezzetti di informazione che riceve e di riunirli all’interno di una risposta “intelligente” alla domanda che gli viene fatta.
Quali sono le sfide più impegnative che avete dovuto affrontato?
Uno dei punti più complessi che stiamo affrontando in questo periodo sono i canali di fruizione. Noi siamo partiti dall’integrazione della chat in un’app e in un sito web. Oggi stiamo lavorando con i sistemi di Amazon per sfruttare Amazon Connect che è una piattaforma di omnicanalità che ci permette di operare sia con tutte le chat (WhatsApp, Facebook, Teams, Telegram o Zoom), sia con la telefonia. Quest’ultima comporta, però, una grossa sfida tecnologica: al contrario di quanto accade con un testo scritto, al telefono non si possono attendere svariati secondi per avere una risposta. In laboratorio stiamo studiando come consentire al sistema di prendere tempo pronunciando degli intercalare, come per esempio “un attimo”, però in modo non ripetitivo perché sarebbe noioso. C’è tanto lavoro da fare sulla user experience.
Va poi consideriamo che tutti i maggiori vendor di software si stanno muovendo in maniera molto decisa su questi temi ed è lecito pensare che molti use case comuni verranno soddisfatti. Questo comporta che nel caso di un CRM o di piattaforme di marketing saranno disponibili soluzioni eccezionali. Noi invece puntiamo a tutti quei casi d’uso che non hanno una replicabilità perché non sono uguali per tutti e necessitano di dati specifici, di particolari processi, modi e approcci. Un aspetto importante è avere dati di qualità con cui poter lavorare.
Sembra di capire che la vostra soluzione è efficace perché voi partite da dati precisi e sapete come fornirli. Non vi basate solo su dati già presenti in azienda che potrebbero essere poco azionabili.
Ci siamo focalizzati su un approccio che funziona e che in poco tempo permette un’efficace messa a terra. Questa praticità, che ci viene riconosciuta dai clienti, si basa sul fatto di avere delle regole sulle tecnologie e sul tipo di intenti e di non volere una piattaforma di artificial intelligence che può fare tutto. Può fare tante cose, ma deve avere il dato giusto. Se le informazioni sono giuste e corrette funziona molto bene. L’azienda deve preoccuparsi della qualità dei dati poi noi pensiamo a colmare la complessità della tecnologia sottostante. Siamo una sorta di abilitatore per permettere alle aziende di prototipare, di provare e di sviluppare. Quando sono pronte, oltre ai test, all’interno della medesima piattaforma possono fare anche rilasci e gestire il ciclo di vita di questi agenti.