La piattaforma SentinelOne migliora la Sicurezza AI, supportando organizzazioni nell’uso responsabile e ottimizzato dell’intelligenza artificiale.
Sicurezza AI è al centro dell’aggiornamento della piattaforma SentinelOne, che introduce nuove funzionalità di Data Security Posture Management (DSPM) progettate per proteggere i sistemi di intelligenza artificiale dall’acquisizione dei dati fino all’esecuzione in runtime. Grazie a questo approccio, le organizzazioni possono adottare l’AI rispettando normative, requisiti sulla privacy e riducendo i rischi, garantendo un uso sicuro dell’automazione e dell’innovazione guidata dall’AI.
Rischi e sfide dell’AI in produzione
Con l’adozione dell’AI su larga scala, le imprese affrontano un nuovo livello di rischio, che influisce direttamente sulla velocità operativa, sulla fiducia e sulla conformità normativa. I sistemi di AI sono sempre più integrati nei dati, nell’infrastruttura cloud e nei workflow di produzione, ampliando la superficie di attacco. Questa complessità richiede un approccio olistico che protegga dati, infrastrutture e runtime come un unico ambiente unificato, garantendo continuità e affidabilità.
Il ruolo del DSPM nella protezione della Sicurezza AI
Le funzionalità DSPM di SentinelOne agiscono come il ‘primo miglio’ della sicurezza dell’AI, impedendo che dati sensibili o ad alto rischio entrino nelle pipeline di intelligenza artificiale. In questo modo si affrontano rischi irreversibili, come la memorizzazione non controllata dei dati o l’inquinamento delle pipeline prima dell’addestramento.
Questa piattaforma si basa sulla gestione della postura dell’infrastruttura cloud (CSPM). Sulla gestione della postura di sicurezza dell’AI (AI-SPM). Sulla protezione dei workflow in tempo reale e sulla sicurezza della GenAI e degli agent per collaboratori. Creando così una piattaforma di sicurezza AI completa. Grazie a questo approccio unificato, i team di sicurezza possono monitorare i rischi lungo tutto il ciclo di vita. Ma anche prevenire movimenti laterali dai dati alla logica dei modelli e proteggere i sistemi di AI negli ambienti reali.
Una visione completa sulla Sicurezza AI
Gregor Stewart, Chief AI Officer di SentinelOne
Man mano che i sistemi di AI diventano più potenti e più autonomi, la sicurezza deve evolversi per essere all’altezza della realtà. La sicurezza dell’AI non è un problema puntuale ma riguarda l’intero ciclo di vita. La sicurezza dei dati è il primo passo, ma una protezione reale richiede la messa in sicurezza di tutto ciò su cui l’AI è costruita: dai dati, dall’infrastruttura fino al comportamento in fase di runtime.

Gregor Stewart, Chief AI Officer di SentinelOne




