Luci e ombre nel rapporto tra sicurezza e intelligenza artificiale

Diventa sempre più necessario e non procrastinalbile integrare la security nei sistemi AI sin dall’inizio.

Intelligenza Artificiale AI

L’ultima ricerca di Trend Micro sottolinea come l’intelligenza artificiale contribuisca sì a potenziare le difese IT delle aziende, ma aumenti anche l’esposizione ai rischi informatici. La ricerca ‘AI is Changing the Cyber Risk Game. Are You Keeping Up?’ , condotta da Sapio Research, ha coinvolto 2.250 professionisti con responsabilità in ambito IT e/o cybersecurity di aziende di diverse dimensioni e settori verticali, distribuite in 21 Paesi tra cui anche l’Italia.

Anche i cybercriminali sfruttano le potenzialità dell’intelligenza artificiale

Salvatore Marcis, Country Manager Trend Micro Italia
L’AI consente all’organizzazione di rafforzare le proprie difese informatiche. Permettendo in questo modo di individuare più rapidamente le anomalie e di automatizzare le attività più dispendiose in termini di tempo. Ma anche i cybercriminali sfruttano l’AI per raggiungere i propri obiettivi. E questo porta grandi trasformazioni nel panorama delle minacce cyber. La nostra ricerca e i test che abbiamo effettuato nel mondo reale certificano come sia necessario integrare la security nei sistemi AI sin dall’inizio. La posta in gioco è troppo alta per rimandare la gestione di questo aspetto a un secondo momento.

Quali sono le priorità delle aziende

Secondo lo studio, l’81% delle aziende a livello globale utilizza già strumenti basati sull’AI come parte della strategia di cybersecurity e un ulteriore 16% è attivo nell’esplorare altre implementazioni. Il 97% del campione è favorevole all’utilizzo dell’AI e più della metà si affida a questa tecnologia per processi essenziali. Come, ad esempio, il rilevamento automatizzato delle risorse, la prioritizzazione dei rischi e la scoperta delle anomalie. Per quanto riguarda i prossimi 12 mesi, il 42% degli intervistati considera l’AI e l’automazione un’assoluta priorità nelle strategie di miglioramento della cybersecurity.

Ottimismo sì, ma con qualche perplessità

Tuttavia un sorprendente 94% ritiene che l’AI peggiorerà la propria esposizione al rischio nei prossimi 3-5 anni. Mentre oltre la metà si aspetta un incremento nella portata e complessità degli attacchi basati sull’AI. Questo costringerà le organizzazioni a ripensare e rimodellare le strategie di cybersecurity in atto. Molti sottolineano il rischio di esposizione dei dati sensibili, l’incertezza sul modo in cui i dati vengono elaborati e archiviati dai sistemi di intelligenza artificiale.

Infine la possibilità che i dati proprietari vengano sfruttati da modelli non affidabili. Parte degli intervistati ha anche manifestato timore circa le crescenti pressioni sulla conformità e le sfide legate al monitoraggio di nuovi endpoint, API e shadow IT.

Qual è lo stato attuale della sicurezza dell’intelligenza artificiale

Il dualismo tra opportunità e rischi nell’ambito di questa tecnologia è emerso all’evento Pwn2Own di Trend Micro a Berlino, che ha introdotto per la prima volta la categoria AI. I risultati hanno offerto un’istantanea convincente dello stato della sicurezza dell’intelligenza artificiale. Dodici sfide miravano a 4 principali framework di intelligenza artificiale. Tra questi NVIDIA Triton Inference Server, che ha ricevuto le maggiori attenzioni.

Chi sono i colpiti

Anche Chroma, Redis e NVIDIA Container Toolkit sono stati colpiti con successo, in alcuni casi utilizzando un solo bug per raggiungere il massimo risultato. In totale, nei framework AI coinvolti nell’evento, sono state scoperte sette vulnerabilità zero-day uniche. I vendor hanno a disposizione 90 giorni per sviluppare le patch, prima che i dettagli tecnici vengano resi pubblici.