L’AI generativa e la sua implementazione più conosciuta, ChatGPT, sono argomenti di grande attualità. Questo sia per le enormi potenzialità che consentono di poter sfruttare sia per le grandi incognite che pongono per le aziende in termini di affidabilità e sicurezza. Per chiarire un po’ le idee abbiamo chiesto l’opinione su questi temi a un esperto: Alessio Mercuri, Cybersecurity Engineering di Vectra AI.
– In pochi mesi l’AI generativa è diventata un fenomeno altamente pervasivo e ChatGPT ne è la riprova. Nel mondo della sicurezza quale influenza ha (o potrebbe avere) questa nuova tecnica?
Di recente c’è stata un’esplosione di funzionalità, di applicazioni, di modi e di utilizzi differenti dell’AI generativa che non sono legati solo a ChatGPT, ma più in generale ai Large Language Model. Gli operatori del settore si sono trovati un po’ tutti spiazzati da questo boom inaspettato. Ogni settimana si vedono nuovi use case degli strumenti per la generazione rapida (e anche economica) di contenuti: per esempio, sono stati usati per scrivere parti di codici per un’applicazione e per delle traduzioni con una piena comprensione del testo. Tuttavia, a volte, i risultati possono essere oggetto di critiche (c’è chi ha realizzato un malware) o magari possono violare qualche diritto d’autore.
Al di là di questi esempi, gli LLM hanno un enorme potenziale. Però c’è anche il rovescio della medaglia: oggi non si sa esattamente quali siano i limiti e cosa potrebbero portare a realizzare. Questo crea un rischio aziendale serio e tangibile.
Sviluppato da OpenAI, ChatGPT è attualmente lo strumento più facile e più accessibile che consente a chiunque di porre domande tramite un browser web e di ottenere rapidamente risposte. Questa è un’ottima opportunità per l’utente medio, ma per le aziende pone tre seri problemi. Innanzitutto, tutti i dati inviati da ChatGPT vengono archiviati da OpenAI per scopi di qualità e monitoraggio, ma non se ne conosce il reale utilizzo. In secondo luogo, la fonte di qualsiasi risposta è sconosciuta. Infine, la risposta, che è generata da un’intelligenza non controllata, potrebbe essere completamente artefatta. Nel senso che qualsiasi tipo di informazione richiesta potrebbe essere creata ad hoc per rispondere al meglio alla domanda.
– OpenAI dice di tenere traccia delle domande effettuati dagli utenti per poter migliorare il proprio prodotto e monitorare eventuali abusi del sistema.
È un comportamento ragionevole, ma non ci sono prove che i dati inseriti siano gestiti in modo efficace. Inoltre, OpenAI non ha le capacità di controllare effettivamente quali dati vengono inviati a ChatGPT e, di conseguenza, a volte archivia anche informazioni che non si vorrebbe fossero memorizzate. Per esempio, Samsung ha recentemente scoperto che i suoi dipendenti hanno utilizzato ChatGPT per eseguire il debug del codice sorgente di software proprietario e per fare il recap dei verbali delle riunioni. L’azienda coreana aveva consentito ai lavoratori di chiedere aiuto a ChatGPT durante l’esecuzione di alcune attività, ma ha revocato il consenso quando è venuta a conoscenza del fatto che i dipendenti hanno fornito a ChatGPT informazioni top secret.
– Però diverse aziende stanno usando i large language model in forma “privata” per avere un riscontro su dati propri invece che farli uscire all’esterno. Forse c’è già una certa attenzione alla sicurezza.
Da una parte, le aziende stanno tentando di usare applicativi che sfruttano parzialmente le capacità degli LLM, ma dall’altra parte cercano di controllare l’eventuale fuoriuscita di informazioni importanti. I vantaggi di uno strumento come ChatGPT sono innegabili, ma è altrettanto vero che è estremamente facile condividere informazioni strategiche, come dimostra il caso di Samsung. Le aziende stanno reagendo con politiche che, quantomeno, vietano l’uso di ChatGPT senza approvazione e senza specifiche policy. Tuttavia, c’è una difficoltà intrinseca nel monitorare la compliance a questa politica perché ChatGPT funziona attraverso un browser crittografato senza che sia richiesto nessun software. Questo non consente un facile controllo.
La nostra soluzione permette di porre rimedio a questa situazione. Vectra AI è infatti progettato per monitorare il traffico di rete all’interno di un’organizzazione, di un ente o di un’azienda. In tal senso, attraverso dei sensori che monitorano il traffico sia in entrata sia in uscita dalla rete, raccogliamo una ricca quantità di informazioni (i metadati), che sono analizzate tramite l’AI. Nell’ambito della sicurezza, siamo dei pionieri nell’utilizzo dell’intelligenza artificiale.
– Come utilizzate i dati che raccogliete?
L’obiettivo di Vectra AI è di rilevare comportamenti malevoli legati ad attacchi lanciati verso computer e account. Gli stessi metadati che noi estraiamo dalla rete possono essere utilizzati per portare a termine eventuali investigazioni, attività di ricerca proattiva o di compliance. In particolare, mi riferisco al nostro modulo di data lake Recall che consente importanti approfondimenti attraverso diverse dashboard.
Abbiamo anche una dashboard specifica per ChatGPT che è disponibile gratuitamente per tutti i clienti della piattaforma Vectra AI e che mostra, monitorando le richieste, quali utenti interagiscono attivamente con OpenAI. È facile a questo punto per i responsabili della compliance non solo avere direttamente un elenco di persone che hanno un account su OpenAI o che hanno registrato un interesse, ma anche monitorare attivamente chi sta utilizzando il sistema, quanto lo sta utilizzando e quante informazioni sta inviando verso ChatGPT. In questo periodo stiamo facendo dei progetti con alcuni clienti e, usando la nostra dashboard, si sono sorpresi nello scoprire quante persone stanno usando ChatGPT in azienda.
– Qual è oggi il vero valore di uno strumento come ChatGPT?
ChatGPT risponde alle domande senza attribuire fonti alle risposte e rilascia informazioni basate sui suoi risultati, che siano precisi o meno. Per esempio, queste informazioni potrebbero essere protette da copyright. L’utente deve perciò essere in grado di analizzare criticamente le informazioni per stabilire se sono vere o meno. ChatGPT non è ancora lo specchio della realtà. Probabilmente lo sarà in futuro, dato che si basa su sistemi in continuo apprendimento.
Non avendo una chiara visione sull’utilizzo dei dati, c’è poi una regolamentazione da mettere in atto. In questo senso si è mosso il Garante della Privacy ma anche la Commissione europea, che ha redatto l’AI Act in cui si stabiliscono precise direttive per l’uso dell’intelligenza artificiale.
– L’AI generativa è disponibile per tutti, anche per chi vuole sferrare degli attacchi. Secondo voi, in che modo sta favorendo i cybercriminali?
Vectra, nata nel 2012, è sinonimo di Intelligenza Artificiale. Abbiamo sempre sostenuto che un utilizzo congiunto ed efficiente di data science e Intelligenza Artificiale sia capace di trasformare la lotta agli attacchi informatici, perché rende più incisive e accurate le azioni di chi deve rispondere a un attacco.
Vectra infatti si focalizza sulla creazione di contromisure volte a rilevare, attraverso l’AI, metodi di attacco e relative tattiche, tecniche e procedure. Indipendentemente dalla velocità con cui gli attaccanti cambiano i propri strumenti, i metodi di attacco evolvono lentamente e la progressione dell’attacco stesso fondamentalmente è sempre la stessa. Nel momento in cui un attaccante poi fa breccia in un’infrastruttura, dovrà parlare il linguaggio comune dei sistemi che vuole attaccare, ovvero i suoi protocolli, lasciando segnali ben visibili e che possono essere intercettati. È compito di Vectra intercettare questi segnali, correlarli, capirne la gravità e bloccare l’attacco in corso nel minor tempo possibile.
Nel mondo cyber ciò che l’automazione sta portando è una sempre maggiore velocità degli attacchi. Una volta richiedevano giorni, oggi si parla di minuti. Le cosiddette ransomOps, le ransomware operation, hanno i loro store nel deep web e forniscono pacchetti di strumenti che anche il meno esperto degli attaccanti può usare per lanciare un attacco senza nemmeno sapere cosa sta utilizzando. Ciò che colpisce è la velocità con cui questi pacchetti di strumenti permettono di entrare in un’infrastruttura.
Tuttavia, una volta che accede all’interno dell’infrastruttura, qualsiasi strumento si muoverà sempre allo stesso modo. Vectra è in grado di identificare tali comportamenti e riesce in near Real Time a offrire la possibilità di intervenire, automaticamente o in maniera manuale, per poter bloccare l’attacco prima arrivi all’obiettivo, che può essere l’installazione di un ransomware o l’esfiltrazione dei dati.
– Quanto è importante la prevenzione nel limitare gli attacchi?
La prevenzione è importante per tenere gli attaccanti fuori dall’infrastruttura, ma in tutti gli attacchi andati a buon fine di cui sentiamo parlare ogni giorno la prevenzione ha in qualche modo fallito. La prevenzione non è inutile. Tutt’altro. Però, gli attaccanti più sofisticati riescono a eluderla ed entrare. Soluzioni di threat detection & response come Vectra sono usate proprio per accorgersi di quanto è successo e quindi bloccare l’attacco nel momento in cui qualcosa è stato compromesso. Può essere un computer portatile, una telecamera, un dispositivo Iot, una stampante o l’account di una persona.
L’attaccante evoluto non si ferma di fronte a niente e riesce a entrare. L’unica chance che si ha è di rilevarlo e bloccarlo prima possibile. Purtroppo, bisogna entrare nella logica “dell’assumed compromise”, ovvero considerare che prima o poi qualcuno supererà la protezione che è stata messa a punto. Lo afferma anche Gartner: c’è un grandissimo bisogno di migliorare le capacità di rilevamento e risposta alle minacce.
– Gli attaccanti hanno degli obiettivi preferenziali?
Le aziende del banking, del finance o le utility rimangono l’obiettivo principale degli attaccanti, ma nessuna azienda deve considerarsi sicura. Abbiamo visto attacchi in ogni verticale di mercato e in aziende di ogni dimensione.
Ritengo che la consapevolezza riguardo la possibilità di essere vittima di un attacco sia sempre più diffusa e ormai c’è una grossa attenzione anche da parte della piccola e media impresa. Tuttavia, la maggior parte delle aziende (soprattutto quelle più piccole) non può permettersi di avere risorse interne che si occupano di sicurezza, così ricorrono all’outsourcing. Nel caso in cui si voglia implementare Vectra AI, attraverso i nostri servizi di Managed Detection & Response abbiamo la possibilità anche di gestirlo da remoto e di accorgerci in modo tempestivo di eventuali attacchi. La stessa cosa può essere fatta dai nostri partner, quando possono fornire un servizio che va oltre l’NDR.