
Prosegue l’espansione della piattaforma Netskope One con l’obiettivo di coprire un numero sempre più ampio di casi d’uso legati alla sicurezza dell’intelligenza artificiale. Tra questi una protezione avanzata per le applicazioni private e attributi di gestione della postura di sicurezza dei dati (DSPM). Altri fornitori si concentrano soprattutto sull’abilitare un accesso sicuro degli utenti alle applicazioni di intelligenza artificiale.
Netskope One copre diversi casi d’uso relativi alla sicurezza dell’AI
Le funzionalità di Netskope vanno invece oltre, gestendo i nuovi rischi introdotti dall’adozione e dallo sviluppo di applicazioni dell’AI. Fornendo in questo modo una profonda comprensione dei dati sensibili immessi nei modelli linguistici di grandi dimensioni (LLM). E inoltre valutando il rischio associato ai modelli di intelligenza artificiale per prendere decisioni consapevoli sulla selezione delle applicazioni e sulla definizione delle policy.
Basandosi sulle attuali e complete protezioni per le applicazioni SaaS pubbliche e di AI, Netskope One — potenziata dalle innovazioni di SkopeAI in tutta la piattaforma — copre un’ampia gamma di casi d’uso relativi alla sicurezza dell’AI. Infatti protegge e mette in sicurezza l’utilizzo dell’AI da parte di utenti, agenti, dati e applicazioni, garantendo visibilità completa e controlli contestuali in tempo reale.
Crescono le sfide
La rapida adozione dell’intelligenza artificiale da parte delle organizzazioni ha creato un ecosistema estremamente complesso. Composto da popolari applicazioni di genAI pubbliche, applicazioni con funzionalità AI integrate, applicazioni AI private, agenti AI e altro ancora. Tutti caratterizzati da diversi livelli di utilizzo e accesso e in costante interazione tra loro e con le altre operazioni aziendali. Questo ecosistema ha a sua volta generato una superficie di attacco molto estesa, introducendo nuove sfide in termini di visibilità e di applicazione delle policy.
Nelle aziende si diffonde la ‘shadow AI’
Secondo il 2025 Generative AI Cloud and Threat Report di Netskope Threat Labs nell’ultimo anno le organizzazioni hanno registrato un aumento di 30 volte nel volume di dati inviati alle applicazioni di generative AI da parte degli utenti interni. Gran parte di questo incremento deriva dall’uso di ‘shadow AI’, ovvero dall’accesso degli impiegati agli strumenti di genAI tramite account personali. Il report ha evidenziato che il 72% degli utenti di genAI continua a utilizzare account personali per interagire con applicazioni come ChatGPT, Google Gemini e Grammarly all’interno dell’ambiente lavorativo.
Ecco i miglioramenti per Netskope One
Le organizzazioni necessitano ora di un approccio unificato ed end-to-end per proteggere ogni aspetto dell’AI nel proprio business, dal generative AI all’agentic AI e oltre. Così da ridurre i rischi mantenendo, al contempo, alta la produttività dei dipendenti nell’uso dell’AI. I miglioramenti annunciati per Netskope One includono nuovi aggiornamenti al Data Security Posture Management (DSPM) di Netskope One, che offre una visibilità e un controllo end-to-end ancora più estesi sull’utilizzo dei diversi archivi di dati per l’addestramento di LLM pubblici e privati.
Dare priorità ai rischi più rilevanti con Netskope One
Le organizzazioni possono:
- supportare un addestramento sicuro, impedendo che dati sensibili o soggetti a regolamentazioni vengano accidentalmente utilizzati per alimentare i LLM. E questo sia direttamente, sia attraverso tecniche come la Retrieval-Augmented Generation (RAG) o il fine-tuning dei modelli. Il DSPM svolge un ruolo fondamentale identificando e segnalando i dati strutturati e non strutturati a rischio all’interno di ambienti SaaS, IaaS, PaaS e on-premises.
- Valutare il rischio AI con il contesto dei dati. Sfruttando la classificazione dei dati del DSPM potenziata dal motore DLP di Netskope e dalle analisi di esposizione. Tutto ciò per valutare meglio il livello di rischio associato alle diverse attività legate all’intelligenza artificiale. Questo consente ai team di sicurezza di dare priorità ai rischi più rilevanti e prendere decisioni più informate sulle policy AI.
- Abilitare una governance AI basata sulle policy, automatizzando il rilevamento e l’applicazione delle policy relative all’uso dei dati per l’AI, in base a classificazione, provenienza o contesto di utilizzo. Combinato con controlli inline, il DSPM aiuta a garantire che solo i dati approvati vengano utilizzati per il training, l’inferenza o le risposte ai prompt.
Netskope One elimina l’incertezza collegata all’AI
Sanjay Beri, CEO di Netskope
Le organizzazioni devono avere la certezza che i dati utilizzati in qualsiasi fase del loro ecosistema AI siano sicuri. Comprendendo come questi dati possano essere impiegati nelle applicazioni, accessibili dagli utenti e integrati negli agenti AI. Dai leader di tutto il mondo mi viene posta la stessa domanda: “Come può la mia organizzazione accelerare sviluppo e distribuzione delle applicazioni AI a supporto del business senza mettere a rischio i dati aziendali in nessuna fase del processo?”. Netskope One elimina l’incertezza legata all’AI, aiutando le organizzazioni a intraprendere percorsi di adozione dell’intelligenza artificiale basati su una piena comprensione delle interazioni AI. Oltre a garantire la protezione dei dati in ogni momento.
Utilizzare solo dati appropriati
Molti clienti Netskope utilizzano già oggi la piattaforma Netskope One per abilitare l’uso aziendale delle applicazioni di intelligenza artificiale. Ora, tutti i clienti possono accelerare i propri percorsi verso una AI sicura per quasi ogni tipo di caso d’uso. Con Netskope One, le organizzazioni possono:
- creare una base coerente per la preparazione all’AI. Comprendere i dati che fluiscono nei LLM, sia attraverso applicazioni pubbliche di genAI sia tramite modelli sviluppati internamente, è fondamentale per mantenere sicurezza e fiducia. Le funzionalità di Netskope One aiutano a garantire che solo i dati appropriati vengano utilizzati nell’addestramento, identificando i dati sensibili e prevenendo l’inserimento di informazioni dannose negli archivi. Questo offre protezione contro il data poisoning e supporta l’applicazione di solide policy DLP. Grazie a funzionalità avanzate di discovery, classificazione ed etichettatura, le organizzazioni possono identificare e gestire i dati che potrebbero interagire con LLM, applicazioni o agenti AI. Creando così una base solida per uno sviluppo dell’AI sicuro e responsabile.
Comprendere i rischi legati all’AI in anticipo
- Ottenere una visione completa dell’AI all’interno dell’organizzazione. I team di sicurezza possono monitorare l’attività dei dipendenti, tracciare l’uso di istanze personali e aziendali e proteggere i dati sensibili sia negli ambienti gestiti sia in quelli non gestiti. Grazie alle valutazioni di rischio fornite dal Netskope Cloud Confidence Index (CCI)—che copre oltre 370 applicazioni di genAI e più di 82.000 applicazioni SaaS—le organizzazioni possono comprendere in modo proattivo i rischi legati all’AI. Inclusi l’utilizzo dei dati, la condivisione con terze parti e i comportamenti di addestramento dei modelli.
Il monitoraggio di Netskope One su prompt e risposte inviati dall’AI
- Applicare una protezione granulare con contesto di rischio adattivo. I team di sicurezza possono andare oltre i semplici controlli di tipo consenti o blocca, applicando policy dettagliate basate sul comportamento degli utenti e sulla sensibilità dei dati. Inoltre possono gestire e prevenire l’adozione di ‘shadow AI’ indirizzando gli utenti verso strumenti approvati. Come le versioni enterprise di Microsoft Copilot e ChatGPT. I team possono anche controllare azioni specifiche all’interno delle applicazioni di AI, come caricare, scaricare, copiare, stampare e altro ancora, riducendo così i rischi. Con un’avanzata tecnologia di Data Loss Prevention (DLP), Netskope monitora non solo i prompt inviati, ma anche le risposte generate dall’AI. E lo fa applicando automaticamente le policy per prevenire l’esposizione di informazioni sensibili o soggette a regolamentazioni.