
Secondo l’ultimo report sulle minacce di Netskope il phishing in Europa è il metodo preferito dai cybercriminali per aggirare i controlli di sicurezza e accedere ad ambienti sensibili. Le informazioni nel report si basano su dati di utilizzo anonimizzati raccolti dalla piattaforma Netskope One, relativi a un sottoinsieme europeo di clienti Netskope, che hanno concesso autorizzazione preventiva affinché i loro dati vengano analizzati.
Adobe e Microsoft sono i marchi più imitati
I ricercatori hanno anche rilevato che Adobe è il marchio più comunemente imitato dai criminali, comparendo nel 29% delle campagne di phishing mirate al furto di credenziali per i servizi digitali. Il secondo è Microsoft, con il 26% degli attacchi, focalizzati sull’accesso agli account cloud di Microsoft 365. Questi risultati evidenziano un rischio informatico persistente e significativo. Perché gli attaccanti utilizzano tecniche di ingegneria sociale per sfruttare la familiarità con le applicazioni cloud più comuni della forza lavoro in Europa, facendo leva sulla fiducia implicita riposta in questi strumenti utilizzati quotidianamente.
Non solo campagne di phishing tra i pericoli per i dati
Il 25% delle organizzazioni europee blocca completamente Grok AI, chatbot di genAI sviluppato da xAI, azienda di Elon Musk. Le organizzazioni preferiscono alternative considerate più adatte all’uso aziendale, come ChatGPT di OpenAI o Gemini di Google. L’applicazione di intelligenza artificiale generativa più comunemente bloccata tra le organizzazioni europee è Stable Diffusion, strumento di generazione di immagini sviluppato dalla società britannica Stability AI.
Le violazioni più comuni delle policy
Oltre un terzo di tutte le violazioni delle policy sui dati legate alle applicazioni di intelligenza artificiale generativa in Europa (34%) riguarda dati regolamentati (protetti dal GDPR e da altre normative sulla privacy). Questo evidenzia la portata del rischio per la protezione dei dati associato all’uso dell’AI. Altre violazioni comuni delle policy includono la condivisione di codice sorgente (31% delle violazioni), proprietà intellettuale (28%) e password e chiavi di accesso (6%).
Contenere il phishing limitando l’uso di account personali al lavoro
Il 97% delle organizzazioni europee utilizza strumenti che integrano funzionalità basate sulla genAI, come Atlassian, Grammarly, e persino Microsoft 365 e Google Docs. Tuttavia, l’uso di account personali di AI generativa sul posto di lavoro è diminuito sensibilmente nell’ultimo anno, passando dal 73% al 58%. Questo calo è in parte dovuto alla diffusione di soluzioni aziendali di qualità superiore e a una maggiore capacità delle organizzazioni di controllare l’uso degli account personali negli ambienti di lavoro.
Le aziende dovrebbero rivedere la propria sicurezza complessiva
Gianpietro Cutolo, ricercatore sulle minacce nel cloud presso Netskope Threat Labs
L’adozione dell’intelligenza artificiale generativa sta crescendo rapidamente in Europa, diventando quasi universale tra le aziende di quest’area geografica. Tuttavia, questo rapido entusiasmo comporta anche sfide significative in termini di sicurezza dei dati.E stiamo assistendo a un aumento notevole dell’esposizione di dati sensibili e regolamentati attraverso queste piattaforme. Le organizzazioni cercheranno sempre più di adottare tecnologie di sicurezza e protezione dei dati in grado di supportare i lavoratori contro attacchi progettati specificamente per sfruttare la psicologia umana. Nessuna applicazione, né il traffico generato da essa dovrebbe essere considerata affidabile o esente da una solida policy di sicurezza.
Si raccomanda quindi alle organizzazioni di rivedere attentamente la propria postura di sicurezza complessiva. Inoltre di assicurarsi che nessuna applicazione o tipo di traffico sia escluso da una politica rigorosa di protezione dei dati. Indipendentemente da quanto possa sembrare affidabile l’organizzazione che li fornisce.