Al via una nuova gestione della sicurezza AI nei workplace

Sarà così possibile sfruttare i vantaggi dell'AI in termini di produttività e competitività, riducendo i rischi.

Dropbox gestione della sicurezza

Resa disponibile da SentinelOne una nuova gestione della sicurezza AI per proteggere e mettere al sicuro l’utilizzo dei servizi di intelligenza artificiale in ambito lavorativo. Realizzata sulla piattaforma di cybersecurity Singularity di SentinelOne, la nuova soluzione amplia il portfolio Singularity Cloud Security di SentinelOne. Una proposta che vanta le migliori valutazioni per offrire ai clienti visibilità e protezione sui servizi cloud di AI, noti e non, in esecuzione nei sistemi. Per i clienti di SentinelOne è disponibile l’“Early Adopter Access”, mentre la disponibilità a livello generale è prevista per inizio 2025.

Una nuova gestione della sicurezza AI a supporto dei team dedicati

AI-SPM di SentinelOne consentirà ai team di sicurezza di rilevare tutte le applicazioni e i modelli di AI in uso, di individuare le errate configurazioni e le vulnerabilità dei servizi di AI. Inoltre di ottenere visibilità sui potenziali percorsi di attacco relativi ai workload di AI. Di conseguenza, le aziende possono sfruttare con fiducia i vantaggi dell’AI in termini di produttività e competitività, riducendo al contempo i rischi per la sicurezza, la privacy e la conformità normativa insiti nelle applicazioni e nei modelli di AI basati in cloud.

Nel maggio 2024, una survey di McKinsey ha rilevato che il 65% delle organizzazioni utilizzava l’AI generativa in almeno una divisione aziendale, con un aumento quasi doppio rispetto alla percentuale del 33% registrata nel 2023. Il 50% utilizzava già l’AI generativa in molteplici ambiti. Per soddisfare la domanda, tutti i principali provider di servizi di public cloud hanno introdotto modalità semplici per realizzare, addestrare e gestire applicazioni di AI generativa in cloud.

Con la soluzione AI-SPM i vantaggi della GenAI senza i rischi

SentinelOneEly Kahn, Vice President of Product Management di SentinelOne
La portata e i vantaggi dell’AI generativa sono innegabili. Tuttavia, proprio gli strumenti e i servizi cloud che semplificano e accelerano l’adozione dell’AI generativa aprono una nuova superficie di attacco e un potenziale rischio normativo. Con la soluzione AI-SPM, consentiamo ai clienti di ottenere i vantaggi della GenAI. E contestualmente permettiamo di fornire ai team visibilità, consapevolezza e gli strumenti necessari per proteggere i dati sensibili presenti in queste potenti applicazioni cloud.

Gestione della sicurezza AI: proteggere anche dall’esposizione involontaria

La nuova soluzione AI-SPM inserita nel portfolio Singularity Cloud Security di SentinelOne, si basa sulle caratteristiche CNAPP complete della piattaforma Singularity. Prevede funzionalità di:

  • rilevare e ottenere visibilità su pipeline e modelli di AI noti e non. L’AI-SPM di SentinelOne individua tutti i servizi di AI, di training, i modelli distribuiti e le pipeline di servizi cloud. Come AWS (Amazon SageMaker e Amazon Bedrock), Google Cloud (Google Vertex AI) e Microsoft Azure (Microsoft Azure OpenAI).
  • Individuare e identificare vulnerabilità e configurazioni errate nell’infrastruttura di AI. L’AI-SPM di SentinelOne fornisce indicazioni su eventuali configurazioni errate nei servizi AI per proteggere dall’esposizione involontaria. Evento che potrebbe portare a possibili esfiltrazioni di dati e accessi non autorizzati a modelli e servizi di AI.
  • Visualizzazione e analisi di potenziali percorsi di attacco. Il graph explorer di SentinelOne visualizza i percorsi di attacco relativi agli avvisi di workload basati sull’AI. Consente così di mostrare graficamente come un aggressore potrebbe muoversi nell’ambiente del cliente e potenzialmente spostarsi lateralmente per accedere alle risorse.
  • Gestire e ridurre i rischi di conformità. Concentrarsi sulle norme dei dati che contribuiscono alla conformità a livello aziendale e alle regole di base del rischio come parte di una valutazione più ampia rispetto a standard normativi. Come, ad esempio, l’EU AI Act e il framework NIST per la gestione dei rischi dell’AI.