Sicurezza AI, da F5 un nuovo standard per il benchmarking

Strumenti che aiutano i team di sicurezza a identificare in modo olistico le vulnerabilità.

Sicurezza AI

F5 presenta nuove risorse di sicurezza AI per valutare il rischio dei modelli e fornire informazioni sulle minacce supportando le aziende, dalla fase pilota alla produzione. Sviluppati dal team di ricerca sulle minacce degli F5 Labs, il Comprehensive AI Security Index (CASI) e l’Agentic Resistance Score (ARS) offrono parametri di riferimento standardizzati, aggiornati mensilmente e supportati da ricerche di alto livello. Combinando intelligence sugli attacchi in tempo reale con analisi esperte sull’evoluzione dei vettori di attacco contro l’AI.

Uno strumento potente e coerente

Nate dall’acquisizione di CalypsoAI da parte di F5, queste risorse di sicurezza includono una delle più ampie librerie di vulnerabilità per l’AI, aggiornata con oltre 10.000 nuovi prompt di attacco ogni mese. Oltre a essere basata su più di un anno di dati sugli attacchi registrati. Gli F5 Labs offrono ora alle aziende e alla più ampia comunità della sicurezza uno strumento potente e coerente per valutare, confrontare e selezionare modelli e fornitori di AI prima della messa in produzione. Il tutto in base alla loro capacità di affrontare sfide chiave e minacce reali alla sicurezza delle applicazioni.

Rafforzare la sicurezza AI

Kunal Anand, Chief Product Officer di F5
Distribuire modelli di AI non verificati in infrastrutture critiche non è innovazione, è negligenza. Le organizzazioni hanno bisogno di un modo per quantificare continuamente la resilienza. Le classifiche AI degli F5 Labs offrono proprio questo standard e isolano specifiche vulnerabilità a livello di modello. Fornendo così ai team di sicurezza le informazioni necessarie per governare l’inferenza e bloccare gli attacchi prima che si verifichino.

Una visibilità avanzata

Grazie a una visibilità avanzata, le classifiche degli F5 Labs aiutano i team di sicurezza a identificare in modo olistico le vulnerabilità. Rafforzando le difese in sinergia con la F5 Application Delivery and Security Platform che mette a disposizione protezione di API e dati, prevenzione degli attacchi DDoS, gestione del traffico dei BOT. Compresa accelerazione delle pratiche DevSecOps attraverso automazione e scalabilità.

Valutare l’attuale panorama dei modelli di AI

La rapida integrazione dell’AI in ogni ambito delle operazioni aziendali ha comportato la necessità di una solida validazione della sicurezza dei modelli scelti da un’organizzazione. Progettate per aiutare i professionisti della sicurezza a rispondere alla domanda “Quanto è sicuro il mio modello?”, le classifiche degli F5 Labs definiscono metriche basate sui percorsi di minor resistenza. Oltre che sulle risorse di calcolo minime necessarie per portare a termine sia attacchi semplici sia complessi.

Quali i benefici delle nuove funzionalità per la sicurezza AI

Oltre a una classifica chiara e immediata, il Comprehensive AI Security Index (CASI) degli F5 Labs offre metriche come:

  • Prestazioni medie. Prestazioni di base del modello misurate su attività standardizzate in condizioni operative normali.
  • Rapporto rischio/prestazioni. Un’indicazione del compromesso tra sicurezza e prestazioni del modello.
  • Costo della sicurezza. Costo attuale di inferenza in relazione al CASI del modello, con valutazione dell’impatto economico della sicurezza.

Ostacolare i tentativi di aggirare le misure di sicurezza AI

A complemento del CASI, l’Agentic Resistance Score (ARS) degli F5 Labs valuta come i sistemi di AI resistono ad attacchi prolungati e adattivi condotti da un agente di AI incaricato di raggiungere un obiettivo. Anziché limitarsi all’esecuzione di un singolo prompt, gli agenti di AI intraprendono interazioni prolungate con i modelli. Applicando metodi di ragionamento e tecniche psicologiche nel tentativo di aggirare i guardrail di sicurezza.

Le tre dimensioni fondamentali

L’ARS valuta i sistemi di AI su

  • sofisticazione richiesta: il livello minimo di ingegno dell’attaccante necessario per compromettere con successo il sistema di AI;
  • resistenza difensiva: quanto a lungo il sistema rimane sicuro durante attacchi prolungati, adattivi e multi-step;
  • contro-intelligence: se attacchi falliti rivelano involontariamente segnali o comportamenti del sistema che potrebbero facilitare futuri exploit.

Andare oltre una base di riferimento per la sicurezza AI dei modelli

L’annuncio integra la recente disponibilità generale di F5 AI Guardrails e F5 AI Red Team. F5 AI Guardrails consente alle aziende di applicare sia guardrail predefiniti sia personalizzati per proteggere il modo in cui l’AI interagisce con utenti e dati. F5 AI Red Team offre test rigorosi attraverso ondate di agenti di AI autonomi. Simulando un team dedicato di moderni analisti della sicurezza e attacchi multi-step che sondano, apprendono e si adattano.

Classifiche CASI e ARS

Questo approccio alimenta le classifiche CASI e ARS. Ciò consente a F5 di misurare sia le caratteristiche di sicurezza di base dei modelli sia la loro resistenza nel lungo periodo in condizioni di minaccia reali e continue. Oltre alle classifiche CASI e ARS, aggiornate ogni mese con i punteggi più recenti, gli F5 Labs pubblicano anche AI Security Insight mensili. Strumenti che spiegano le variazioni più significative dei punteggi riportate nelle classifiche AI di F5 Labs, trattano le ultime novità e ricerche sull’AI. Infine offrono approfondimenti su specifici attacchi all’AI.

Strumenti più efficaci per affrontare le minacce alla cybersecurity

Le classifiche AI degli F5 Labs sono solo un esempio di come F5 stia aiutando clienti e comunità della sicurezza ad adottare l’AI. Il tutto con una comprensione più ampia delle difese dei modelli e dell’evoluzione delle metodologie di attacco. Rendendo visibili e aggregando risultati di rilievo, F5 fornisce strumenti più efficaci per affrontare le crescenti sfide delle moderne minacce alla cybersecurity. Formalizzando un sistema di classificazione per i principali modelli di AI, gli F5 Labs promuovono inoltre una maggiore condivisione delle conoscenze tra i professionisti della sicurezza. Questo genera un effetto moltiplicatore a favore di una più ampia adozione delle best practice nella sicurezza applicativa.