Explainable AI, intervista a Manuel Zini di Kirey Group

L’AI explainability si riferisce alla capacità di un modello di intelligenza artificiale di spiegare o rendere comprensibili le sue decisioni.

Explainable AI

Manuel Zini, Senior Manager & Solution Architect, Distributed Architectures & New Technologies di Kirey Group, ci parla di explainable AI e delle aspettative delle imprese.

– Le imprese stanno guardando all’AI come una tecnologia rivoluzionaria per il loro business. Al momento attuale, al netto dell’hype generale, quanto e come può impattare l’introduzione dell’AI nei processi aziendali? Quali i tempi di ritorno?

Le aziende sono ormai consapevoli dell’enorme potenziale dell’intelligenza artificiale e le aspettative sono molto alte tanto in termini di efficienza e produttività quanto di automazione e supporto alle decisioni strategiche e operative. Secondo le ultime stime degli analisti, a livello globale l’AI generativa potrebbe generare un valore economico aggiuntivo annuale compreso tra i 2.600 e i 4.400 miliardi di dollari, andando quindi oltre il PIL di un paese come l’Italia, che si attesta poco sopra i 2.000 miliardi.
Ciononostante, la misurabilità dell’AI performance, ovvero i benefici ottenibili e ottenuti da un’azienda investendo nell’AI, è un tema tutt’altro che banale, soprattutto nell’ottica delle competenze, infrastrutture, tecnologie e consulenze richieste dalla stessa per concretizzarsi.

La necessità primaria dell’AI, oggi, è di dimostrare il proprio valore nel modo più accurato e rapido possibile e, in quest’ottica, il ROI resta sempre centrale. Calcolato come il rapporto tra il capitale investito e il profitto realizzato, è un indicatore di efficacia comunemente utilizzato che rimane adeguato anche in questo caso, perché misura la redditività dell’investimento.
Proprio in virtù del ROI, secondo Gartner un progetto di intelligenza artificiale su tre è destinato a finire nel cestino entro il 2025, perché i costi supereranno i benefici; e per questo le aziende si stanno concentrando su progetti che offrano risultati in maniera celere e tangibile su più fronti, evitando il contraccolpo che potrebbe derivare da un percorso trasformativo più radicale.

In ogni caso, è bene però considerare che il ROI è un indicatore non esaustivo. Misurare il successo significa definire e tracciare indicatori di performance specifici (KPI), che dipendono dall’obiettivo dell’iniziativa e dalle domande che ci si è posti inizialmente.

Intelligenza Artificiale

Explainable AI (spiegabilità dell’AI) si riferisce alla capacità di un modello di intelligenza artificiale di spiegare o rendere comprensibili le sue decisioni

– Per poter inserire l’AI nei propri ambienti di lavoro e produzione, le imprese stanno investendo massicciamente in competenze, infrastrutture e tecnologie. Come muoversi? Cosa è prioritario? Perché?

La priorità resta la premessa stessa dell’intelligenza artificiale: la data strategy. Ogni percorso di trasformazione digitale inizia da qui, un piano strategico, o una visione a lungo termine, che definisce come l’organizzazione intende raccogliere, gestire, analizzare e utilizzare i propri dati per raggiungere i propri obiettivi di business.
Sebbene oggi l’intelligenza artificiale sia al centro dell’attenzione, i suoi risultati dipendono dalla presenza di un ecosistema di dati ben governato e gestito, perché solo conoscendo il potenziale dei propri dati sarà possibile calibrare correttamente gli investimenti a sostegno dei propri scopi.

Una volta chiarita la propria strategia dati, il nodo centrale risiede quindi in una pianificazione accurata dell’implementazione AI. Andrà realizzato un inserimento graduale e prioritizzato secondo KPI specifici che misurino, oltre al ROI, anche il valore potenziale dell’informazione derivata dal sistema di intelligenza artificiale.

– Quanto conta l’accuratezza della tecnologia e del modello di AI implementato? Ci può fare qualche esempio?

Ovviamente l’accuratezza di un modello di Machine Learning (ML) è importante in quanto rappresentativo della sua performance, ma non è l’unico indicatore rilevante per lo stesso. Anche l’explainability del modello ha una grande rilevanza nella sua applicabilità pratica, in quanto misura che ci aiuta a comprendere quanto un modello possa essere facilmente introdotto all’interno dei processi aziendali. Introdurre modelli automatici in sostituzione o in affiancamento di processi tradizionalmente presidiati da esseri umani è estremamente difficile se non riusciamo a comprendere gli elementi che influenzano il loro comportamento; se il modello, cioè, si comporta come una scatola nera, dando vita ad azioni inspiegabili.

– Explainable AI, di cosa si tratta? Può farci qualche esempio?

L’AI explainability (spiegabilità dell’AI) si riferisce alla capacità di un modello di intelligenza artificiale di spiegare o rendere comprensibili le sue decisioni, ragionamenti e predizioni. Questo concetto è particolarmente importante in contesti in cui le decisioni prese dai sistemi di intelligenza artificiale devono essere giustificate, comprese o accettate dagli esseri umani, come nel caso di sistemi di supporto al decision makingno in ambiti regolamentati.
Cercando di ridurre il comportamento da “scatola nera” dei modelli complessi come le reti neurali profonde, che possono produrre risultati accurati ma non sempre facilmente interpretabili, l’AI explainability cerca di fornire un’informazione chiara su come e perché un modello ha preso una determinata decisione, non solo rendendolo più trasparente e comprensibile per gli utenti, ma facilitandone anche l’accettazione.

La capacità di fornire spiegazioni comprensibili accresce la fiducia nei confronti di un sistema. Pensiamo ad esempio ad ambiti delicati come la medicina, il diritto o la finanza, dove è essenziale che le decisioni automatizzate possano essere comprese e giustificate, per evitare pregiudizi o errori potenzialmente gravi. Infine, in settori regolamentati come quello bancario o sanitario, le normative spesso impongono che le decisioni dell’intelligenza artificiale siano spiegabili, garantendo trasparenza e responsabilità legale.

intelligenza artificiale Explainable AI

– Intelligenza artificiale e cybersecurity, un rapporto complesso, con luci e ombre. Come interpretate questo binomio?

La cybersecurity è una sfida quotidiana e proprio per questo è diventata uno dei settori più innovativi di tutto l’ecosistema della digital transformation, inglobando in tempi brevi anche l’impiego di tecniche di AI.
Dal punto di vista dei threat actor, le tecniche di intelligenza artificiale possono essere impiegate per aumentare l’efficacia degli attacchi. Ad esempio, supportando lo sviluppo di campagne di phishing e attacchi di social engineering sempre più sofisticati, personalizzati e difficilmente riconoscibili.

Al tempo stesso, però, molte tecniche che fanno parte dell’ecosistema dell’intelligenza artificiale, tra cui Machine Learning, Deep Learning ed NLP, permettono, sul fronte difensivo, di potenziare la capacità preventiva e reattiva di qualsiasi azienda permettendo di rilevare pattern complessi che potrebbero sfuggire agli strumenti tradizionali. Nell’insieme, l’AI è quindi in grado di rafforzare anche il processo di vulnerability assessment e management, permettendo di rispondere tempestivamente e in forma automatica (o semi-automatica) a situazioni di pericolo.
Il risultato finale è che il rapporto della Cybersecurity con l’AI non si delinea troppo diverso da quello del settore con altre innovazioni tecnologiche precedenti: è duplice e circolare, alimentato da un ciclo di avanzamenti continui.