Kaspersky: l’intelligenza artificiale è usata anche dai cyber criminali

Kaspersky è in prima linea per combattere i cyber criminali, che sempre più spesso impiegano l’intelligenza artificiale per condurre attacchi molto efficaci.

intelligenza artificiale

Kaspersky ha condiviso con la stampa i risultati della sua indagine globale “Cyber defense & AI: sono pronte le aziende a proteggersi?”, compiuta per avere una misura della percezione della sicurezza, legata all’intelligenza artificiale, da parte di un pool di aziende. Le interviste a 1.415 specialisti di sicurezza aziendale sono state compiute tra fine settembre e inizio ottobre da Arlington Research e hanno interessato società con almeno 100 dipendenti, fino ad arrivare alle enterprise. In Italia le aziende coinvolte sono state 450.

L’incontro è stato condotto da Cesare D’Angelo, General Manager Italy & Med, Giampaolo Dedola, Lead Security Researcher Global Research & Analysis Team, Fabio Sammartino, Head of Pre-Sales.

I risultati dell’indagine

Il 77% degli intervistati ha dichiarato che il numero di attacchi informatici è aumentato nell’ultimo anno e il 43% pensa che la maggior parte di questi sia legato all’uso dell’AI. L’84% dei professionisti IT e di sicurezza informatica in Italia concorda che nei prossimi due anni l’uso dell’intelligenza artificiale da parte dei criminali aumenterà significativamente, inoltre il 68% degli intervistati in Italia è seriamente preoccupato dall’utilizzo dell’AI da parte dei criminali informatici.

intelligenza artificiale

Cesare D’Angelo
A fronte di queste minacce potenziate dall’intelligenza artificiale, le aziende di tutto il mondo stanno cercando di rafforzare le proprie strategie di cybersecurity. L’80% delle aziende italiane intervistate ritiene fondamentale affidarsi a esperti esterni, come i vendor di cybersecurity e il 42% lo sta pianificando. In Italia l’82% degli intervistati sottolinea l’importanza di rafforzare le conoscenze interne attraverso la formazione del personale e il48% sta attuando programmi di awareness, particolarmente importanti per contrastare il phishing e i deepfake.

Ma nonostante la comprensione dei rischi, le aziende incontrano ostacoli significativi nel costruire una solida sicurezza informatica. Il 29% riconosce di avere notevoli gap in questo settore e in particolare il 33% ammette di non disporre di nuove soluzioni di cybersecurity basate sull’AI. Il 30% fatica a ottenere informazioni da esperti esterni sul panorama in evoluzione delle minacce legate all’AI.

L’intelligenza artificiale al servizio dei cyber criminali

L’intelligenza artificiale ha avuto un forte impatto nel mondo criminale. L’AI è usata dagli attaccanti per adattare in maniera automatica le aggressioni al tipo di bersaglio, per moltiplicare le e-mail con testi diversi, per ingannare le vittime con audio e video contraffatti. Le strategie più usate sono il phishing, il deepfake, lo scam.

intelligenza artificiale

Giampaolo Dedola
Secondo l’esperienza di Kaspersky, l’intelligenza artificiale generativa è spesso adoperata per creare più facilmente falsi siti Web (anche centinaia), con all’interno link a form e codice fraudolenti. Fortunatamente, spesso in queste pagine sono presenti testi strani o chiaramente riconducibili all’AI, quindi i difensori possono riconoscerle e segnalarle. Discorso simile per le e-mail, create in automatico a centinaia, con testi sempre più o meno diversi. Da un’analisi che abbiamo compiuto su dati degli ultimi tre mesi del 2023, il 21% circa della posta elettronica fraudolenta è stato generato con l’intelligenza artificiale.

I deepfake sono per ora limitati come numero (anche se alcuni hanno attirato l’attenzione dei media per le grandi quantità di denaro trafugate), ma destano molta preoccupazione, perché uniti alle tecniche di social engineering hanno una grandissima efficacia. Le persone tendono a fidarsi dei colleghi che conoscono, quando sentono la loro voce o li vedono in un video. Quindi è fondamentale insegnare ai dipendenti di non dare nulla per scontato, di fare controlli incrociati e di avvisare i superiori e gli specialisti della cyber sicurezza quando ricevono richieste strane, soprattutto se riguardano operazioni finanziarie di grandi dimensioni.

I cyber criminali usano l’AI anche per condurre campagne di disinformazione, per sostenere determinate idee o anche nazioni nei social. Possono persino condurre, grazie all’intelligenza artificiale generativa, conversazioni con utenti reali.

L’AI Technology Research Center di Kaspersky

L’AI Technology Research Center di Kaspersky è il nuovo centro di competenza che l’azienda ha creato in seguito al grande sviluppo dell’intelligenza artificiale. L’uso dell’AI non è una novità per il marchio, la implementa da anni nelle sue soluzioni per renderle più efficaci. Ma in questi ultimi due anni c’è stata una vera e propria esplosione nel settore dell’intelligenza artificiale, in particolare per quanto riguarda quella generativa.

intelligenza artificiale

Fabio Sammartino
Il compito del nuovo centro è studiare come gli aggressori stiano usando le tecnologie di intelligenza artificiale per veicolare gli attacchi, così da sviluppare strategie e strumenti più efficaci per contrastarli. Ogni giorno, Kaspersky rileva oltre 400.000 nuovi oggetti dannosi. Il numero è in crescita anno dopo anno e per la loro catalogazione mettiamo in campo l’AI, il machine learning, le reti neurali, che permettono di identificare i comportamenti pericolosi.

In sintesi ecco perché la ricerca di Kaspersky nell’intelligenza artificiale è essenziale:

  • Combattere le minacce in continua evoluzione: l’AI è fondamentale per tenere il passo con il panorama delle minacce in rapida evoluzione e le sofisticate tecniche dei malware
  • Migliorare la velocità e l’efficienza: l’AI automatizza le attività, analizza grandi quantità di dati e identifica le minacce più rapidamente rispetto ai metodi tradizionali
  • Migliorare l’accuratezza e ridurre i falsi positivi: gli algoritmi di intelligenza artificiale sono addestrati a riconoscere modelli e anomalie sottili, riducendo i falsi positivi e migliorando l’accuratezza del rilevamento
  • Consentire un modello di difesa proattiva: l’intelligenza artificiale aiuta a identificare potenziali vulnerabilità e a prevedere attacchi futuri, passando dalla sicurezza informatica reattiva a quella proattiva
  • Affrontare la carenza di competenze in materia di sicurezza informatica: gli strumenti di intelligenza artificiale possono potenziare gli analisti umani, rispondendo alla crescente necessità di professionisti della sicurezza informatica

security awareness

Il marchio affronta lo sviluppo dell’intelligenza artificiale seguendo un preciso codice etico:

  • Trasparenza: i clienti hanno il diritto di sapere come vengono utilizzati l’intelligenza artificiale e l’apprendimento automatico
  • Sicurezza: dare priorità alla sicurezza e alla resilienza dei sistemi AI/ML
  • Controllo umano: mantenimento delle capacità di supervisione e intervento umano
  • Privacy: rispetto della privacy individuale e dei diritti alla protezione dei dati
  • Sviluppo per la sicurezza informatica: AI/ML utilizzati esclusivamente per scopi difensivi

Kaspersky è molto attenta ai temi di trasparenza e riservatezza dei dati. Ha superato con successo ispezioni da parte del Garante dimostrando che tutte le informazioni che tratta sono rese anonime e conservate in Europa, conformemente al GDPR. Inoltre è una delle poche aziende che sviluppa soluzioni on premise, che permettono di utilizzare tutte le funzionalità che richiederebbero il collegamento al cloud, ma al sicuro nel sistema IT del cliente.

intelligenza artificiale

Le tendenze per il 2025

Per il prossimo anno è facile prevedere un aumento dell’impiego dell’intelligenza artificiale, sia da parte degli attaccanti sia dei difensori. In particolare gli LLM diventeranno uno strumento standard per la ricognizione, la raccolta di informazioni, la ricerca di vulnerabilità, la creazione di script, la generazione di comandi post-exploitation. I cyber criminali cercheranno di mascherare le loro attività sugli LLM pubblici, aggirando le limitazioni imposte dagli autori e creando una quantità di account fittizi. Ci sarà anche la possibilità che alcuni attaccanti – quelli dotati di maggiori risorse, tipicamente quelli finanziati da enti governativi – creino servizi LLM privati, per supportare le loro attività.

Si intensificherà l’impiego dei deepfake, che diventeranno sempre più verosimili, grazie alla diffusione di algoritmi generativi migliori e alla grande disponibilità di materiale originale.

Infine, i criminali potrebbero inserire backdoor nei modelli open source e manipolare i dataset open source, per applicare tecniche di ingegneria sociale e per condurre campagne di disinformazione.