Vantaggi e rischi di LLM nel cloud, la parola a Palo Alto Networks

Un LLM è in grado di rispondere a domande, generare testi, sostenere una conversazione con gli utenti.

llm

Tristano Ermini, Manager, Systems Engineering di Palo Alto Networks, ricorda come la tecnologia LLM nel cloud sia sì innovativa, ma presenta anche diversi rischi. Un aspetto che Ermini analizza nel suo intervento.

Qual è la correlazione tra i modelli linguistici di grandi dimensioni (LLM) e la sicurezza cloud? Questi modelli avanzati possono essere pericolosi, ma possono anche essere utilizzati per favorire la sicurezza dei sistemi basati su cloud. Un modello linguistico di grandi dimensioni è un programma di intelligenza artificiale progettato per comprendere il linguaggio umano e generare contenuti in linea con questo. Viene addestrato su grandi quantità di dati testuali provenienti da Internet, imparando grammatica, eventi e processi di ragionamento.

Cosa può fare un modello linguistico di grandi dimensioni

Grazie a queste conoscenze, un LLM è in grado di rispondere a domande, generare testi e persino sostenere una conversazione con gli utenti. Esempi di LLM sono ChatGPT di OpenAI, Bard di Google e il motore di ricerca Bing di Microsoft. Con il cloud computing che continua a dominare il panorama tecnologico, è diventato più importante che mai garantire una solida sicurezza a servizi e dati che risiedono nel cloud e proprio lo sviluppo di modelli linguistici di grandi dimensioni si è rivelato molto promettente per ottimizzarla.

Vantaggi e rischi degli LLM nel cloud

Proprio per il carattere rivoluzionario della tecnologia LLM, ci sono problemi e limiti noti che i ricercatori di intelligenza artificiale devono ancora superare. Se da un lato l’AI generativa può produrre contenuti utili e accurati, dall’altro può creare disinformazione che confonde i consumatori. Analizziamo qui di seguito alcuni dei principali rischi:

Allucinazione. Gli LLM possono generare output non fondati sul contesto di input o sulla conoscenza del modello. Ciò significa che il modello linguistico genera un testo non logicamente coerente con l’input, o semanticamente scorretto, che risulta comunque plausibile a un individuo.

Pregiudizi. La maggior parte delle applicazioni LLM si affida a modelli preaddestrati, perché la creazione di un modello ex novo è troppo costosa per la maggior parte delle aziende. Tuttavia, poiché non esistono dati di addestramento perfettamente bilanciati, ogni modello avrà sempre qualche aspetto falsato. Ad esempio, i dati sulla formazione potrebbero contenere più testi in inglese che in cinese o più conoscenze sul liberalismo che sul conservatorismo. Quando gli esseri umani si affidano alle raccomandazioni di questi modelli, i loro pregiudizi possono portare a decisioni non corrette o discriminatorie.

Il pericolo dei contenuti indesiderati

Coerenza. Anche partendo dai medesimi input, gli LLM non generano sempre gli stessi output. Sono modelli probabilistici che continuano a “prevedere” la parola successiva in base a determinate distribuzioni di probabilità.

Elusione dei filtri. Gli strumenti LLM sono tradizionalmente dotati di filtri di sicurezza per evitare che i modelli generino contenuti indesiderati. Come quelli per adulti, violenti o non rispettosi del copyright. Tali filtri, tuttavia, possono talvolta essere aggirati, ad esempio, manipolando gli input (prompt injection attack). I ricercatori hanno dimostrato varie tecniche per istruire ChatGPT a generare testi offensivi o previsioni non fondate.

Vantaggi e rischi di LLM nel cloud, la parola a Palo Alto

Privacy. Gli LLM possono solo ricevere input e generare output entrambi non crittografati, by design. Quando un modello proprietario viene offerto come servizio, ad esempio OpenAI, i service provider accumulano una grande quantità di informazioni sensibili o classificate, la cui violazione potrebbe essere catastrofica, come osservato nei recenti casi di takeover di account e incidenti di query trapelate.

Usi malevoli

Fake news e disinformazione. Grazie alle loro avanzate capacità di generazione del linguaggio, gli LLM possono creare contenuti convincenti, basati su input verosimili ma falsi. Contribuendo così alla diffusione di fake news, teorie cospirative o narrazioni con intenti negativi.

Attacchi di social engineering. I malintenzionati possono utilizzare gli LLM per creare sofisticati attacchi di social engineering, come le e-mail di spear phishing e contenuti basati sul deep fake.

Violazione della proprietà intellettuale. Gli LLM possono essere utilizzati per generare contenuti molto simili a materiale protetto da copyright. Questo rappresenta un rischio per le aziende che si affidano alla proprietà intellettuale per mantenere un vantaggio competitivo.

Creazione di strumenti di attacco. L’AI generativa è stata utilizzata per verificare codice sorgente e scrivere nuovo codice e i ricercatori hanno dimostrato che può anche scriverne di pericolosi, come i ransomware. Ulteriori ricerche dimostrano che i criminali informatici usano ChatGPT anche per creare script di attacco.

Casi d’uso di LLM nella sicurezza cloud: vantaggi e rischi

Gli LLM non rappresentano solamente un rischio potenziale, ma possono anche assumere un ruolo positivo. Infatti se usati correttamente, possono essere sfruttati anche per migliorare la sicurezza cloud.

Automatizzare il rilevamento e la risposta alle minacce. Uno dei vantaggi più significativi degli LLM nel contesto della sicurezza cloud è la capacità di ottimizzare i processi di rilevamento e risposta alle minacce. Unendo la comprensione del linguaggio naturale, tipica degli LLM, alla Precision AI (Machine Learning o Deep Learning), si possono identificare potenziali minacce nascoste in grandi volumi di dati e modelli di comportamento degli utenti. Inoltre, imparando continuamente da nuovi dati, è possibile adattarsi alle minacce emergenti e fornire informazioni sui rischi in tempo reale, consentendo alle aziende di rispondere in modo rapido ed efficiente agli incidenti di sicurezza.

Rispettare un elevato livello di conformità

Vantaggi e rischi di LLM. Migliorare la conformità alla sicurezza. Con la continua evoluzione dei quadri normativi, le aziende devono affrontare la sfida della compliance rispetto a vari standard e requisiti di sicurezza. Gli LLM possono essere utilizzati per analizzare e interpretare i testi normativi, consentendo di comprendere e implementare i controlli di protezione necessari. Automatizzando la gestione della conformità, possono ridurre significativamente l’impegno dei team di sicurezza, consentendo loro di concentrarsi su altre attività fondamentali. Questo aspetto è importante per le soluzioni che richiedono un elevato livello di conformità e lo è ancora di più quando il cliente che le gestisce desidera rispettare determinate normative.

Prevenzione degli attacchi di social engineering. Gli attacchi di social engineering, come il phishing e il pretexting, sono tra le minacce più diffuse alla sicurezza cloud. Utilizzando gli LLM per analizzare i modelli di comunicazione e identificare i potenziali rischi, le aziende possono rilevare e bloccare in modo proattivo gli attacchi di social engineering. Grazie a capacità avanzate di comprensione del linguaggio, gli LLM sono in grado di discernere le sottili differenze tra comunicazioni legittime e dannose, fornendo un ulteriore livello di protezione per i sistemi basati su cloud.

Migliorare la comunicazione della risposta agli incidenti. Quando si parla di sicurezza cloud, un aspetto critico dell’incident response è rappresentato dall’efficacia dei processi di comunicazione. Gli LLM possono essere utilizzati per generare report accurati e tempestivi, rendendo più facile per i team di sicurezza comprendere la natura degli incidenti e coordinare le attività di risposta. Inoltre, possono essere adottati per creare comunicazioni chiare e concise con gli stakeholder, aiutando le aziende a gestire i rischi per la reputazione associati alle violazioni di sicurezza.

Gli LLM in Palo Alto Networks

In Palo Alto Networks, gli LLM sono impiegati principalmente per migliorare la modalità con cui l’utente si interfaccia con la console delle diverse soluzioni. E questo con strumenti tipo Copilot oppure con la possibilità di effettuare query in linguaggio naturale. Le funzionalità di Security fanno invece uso di Precision AI, come Machine Learning e Deep Learning.

Come Palo Alto Networks protegge dai rischi degli LLM

Come abbiamo visto, sebbene i vantaggi degli LLM siano numerosi, essi aumentano anche il rischio che i dipendenti delle organizzazioni diffondano dati sensibili attraverso le applicazioni di Generative AI, violando la conformità o i requisiti normativi. Palo Alto Networks offre ai propri clienti un CASB di nuova generazione. Una soluzione in grado di identificare e bloccare l’accesso a interi cataloghi di app di Gen AI non autorizzate, che possono mettere a rischio utenti e dati. Inoltre, per le app consentite. Inoltre il CASB può impedire la dispersione di dati sensibili su ChatGPT e altre app di uso comune. Ad esempio quando gli utenti incollano codice sorgente o dati personali e/o sensibili negli appositi campi di queste applicazioni.