AI non gestita: business, reputazione e norme a rischio

Prompt identici possono produrre risposte diverse a seconda dell’area geografica o dei modelli.

intelligenza artificiale business

Secondo una recente ricerca di Trend Micro i sistemi AI, se non correttamente gestiti, possono esporre il business e le aziende a danni finanziari, di reputazione e legali. Questo emerge dallo studio Risks of Unmanaged AI Reliance: Evaluating Regional Biases, Geofencing, Data Sovereignty, and Censorship in LLM Models. Lo studio ha coinvolto oltre 100 modelli di AI e utilizzato più di 800 prompt mirati progettati per valutare bias, consapevolezza politica e culturale, comportamenti di geofencing, segnali di sovranità dei dati e limitazioni contestuali. Sono stati condotti migliaia di esperimenti, per misurare come gli output cambiano nel tempo e nei luoghi e sono stati analizzati più di 60 milioni di token di input e oltre 500 milioni di token di output.

Quando le incoerenze generate dall’AI danneggiano gli affari

I sistemi di intelligenza artificiale possono generare risultati diversi a seconda della posizione geografica, lingua, progettazione del modello e controlli integrati. Nei settori dove si lavora a contatto con i clienti o si prendono decisioni importanti, queste incoerenze possono minare la fiducia. Oppure allontanare da regolamenti locali o norme culturali e portare a costose conseguenze per il business. I risultati rivelano che prompt identici possono produrre risposte diverse a seconda dell’area geografica e dei modelli.

O addirittura variare nel corso di interazioni ripetute con lo stesso sistema. In scenari politicamente critici, come nel caso di territori contesi o di identità nazionale, i modelli hanno mostrato chiare differenze di allineamento a seconda del luogo. In altri test, i modelli hanno restituito risultati obsoleti o incoerenti in aree che richiedevano precisione. Come ad esempio calcoli finanziari e informazioni dove il tempo giocava un ruolo chiave.

Il rischio è quello di perdere il controllo

Marco Fanuli, Technical Director di Trend Micro Italia
In molte organizzazioni, si pensa che l’intelligenza artificiale si comporti come un software tradizionale e che lo stesso input produca in modo affidabile lo stesso output. La nostra ricerca mostra che questo pensiero non è corretto. I LLM possono fornire risposte diverse in base all’area geografica, alla lingua, ai guardrail e possono anche cambiare da un’interazione all’altra. Quando i risultati dell’AI vengono utilizzati direttamente dai clienti o per prendere decisioni di business, il rischio è di perdere il controllo su comunicazione, compliance e rispetto delle norme culturali.

Quando i rischi coinvolgono sovranità e accessibilità

Lo studio evidenzia che i rischi sono maggiori per le organizzazioni che operano a livello globale o utilizzano l’intelligenza artificiale in diverse aree geografiche. Un servizio basato sull’intelligenza artificiale potrebbe essere regolamentato da diversi quadri giuridici, politici e socioculturali. Le criticità coinvolgono anche il settore pubblico. In questo caso, i risultati generati dall’intelligenza artificiale potrebbero essere interpretati come una guida ufficiale e la dipendenza da modelli non localizzati o non verificati potrebbe introdurre rischi di sovranità e di accessibilità.

Utilizzare l’AI tenendo conto anche dei suoi limiti

Marco Fanuli
L’intelligenza artificiale non dovrebbe essere trattata come uno strumento di produttività plug-and-play. Le organizzazioni devono considerare i rischi di dipendenza, adottare una governance chiara, definire le responsabilità e introdurre la verifica umana per qualsiasi output rivolto agli utenti. Questo include la trasparenza dei fornitori di AI su come si comportano i modelli, su quali dati si basano e dove vengono applicati i guardrail. L’intelligenza artificiale promuove innovazione ed efficienza, ma solo quando viene utilizzata con una chiara comprensione dei suoi limiti. Oltre che con controlli che verificano come i sistemi si comportano negli ambienti del mondo reale.