Gen pubblica i trend 2025 per la cybersecurity e le principali minacce IT, secondo cui è prevista una fase evolutiva di AI e deepfake, oltre a truffe iper-personalizzate.
Con l’indagine “Cyber Defence & AI: sono pronte le aziende a proteggersi?” Kaspersky evidenzia i pericoli dell’intelligenza artificiale usata dai criminali.
L’acceleratore CortAIx di Thales ha sviluppato un metamodello che rileva immagini, video e audio generati dall’AI per disinformazione, manipolazione e frode.
Il Web può essere pericoloso per chi è inconsapevole della diffusione non autorizzata delle immagini personali, dello stalking informatico, dei deepfake.
SentinelOne parte da Taylor Swift, vittima di immagini deepfake sessualmente esplicite, per spiegare cosa fare se si è vittime di immagini false generate con l’AI.
Per conoscere strumenti e tattiche usate dai criminali, gli esperti di Barracuda hanno analizzato sei applicazioni malevole dell’AI nelle mani degli hacker.
L’intelligenza artificiale può essere usata per ricostruire voci e canzoni, i voice deepfake possono essere generati per ingannare utenti e consumatori.
Focus su social engineering, furto di identità e deepfake durante la seconda edizione dell’evento Security4Business, organizzato da IKN Italy e dedicato alla cyber security.
La tecnologia deepfake e l’intelligenza artificiale avranno un ruolo sempre più importante nei cyberattacchi, afferma Lucia Milica, resident CISO di Proofpoint.
Greg Day (Cybereason) elenca le sue previsioni sulla sicurezza 2023: deepfake, la quinta generazione di ransomware, attacchi trasferibili tra dispositivi smart.
Check Point evidenzia come, nel 2022, la cybersecurity sarà ancora messa a dura prova: i criminali sfrutteranno deepfake, criptovalute e wallet mobile.
Il problema deepfake è sempre più preoccupante. Gastone Nencini, Country Manager di Trend Micro Italia, consiglia come comportarsi per rendere Internet più sicuro.