Sono due le ricerche che Sophos ha dedicato all’utilizzo dell’AI nel comparto del cybercrimine. In questo modo è possibile capire cosa pensano i cybercriminali e anticipare le prossime attività illecite. In “The Dark Side of AI: Large-Scale Scam Campaigns Made Possible by Generative AI”, viene sottolineato come nel futuro potranno essere sfruttate tecnologie come ChatGPT per perpetrare frodi su vasta scala a fronte di competenze tecniche minime. Nel secondo report “Cybercriminals Can’t Agree on GPTs”, tuttavia, Sophos rileva come, nonostante le potenzialità della AI, alcuni cybercriminali siano ancora lontani dall’adottare gli LLM (Large Language Model) come ChatGPT. In realtà appaiono scettici, se non preoccupati, circa il ricorso alla AI per i loro attacchi.
Il lato oscuro della AI
Usando un semplice template per e-commerce e tool LLM come GPT-4, gli specialisti di Sophos X-Ops sono stati in grado di costruire un sito web completamente funzionante. Un sito dotato di immagini, contributi audio e descrizioni di prodotto generati da AI, completato da un finto login Facebook e una finta pagina di checkout. Dove è possibile sottrarre le credenziali di login e i numeri di carta di credito di utenti inconsapevoli. Costruire e attivare il sito web ha richiesto pochissime conoscenze tecniche. Con lo stesso strumento, inoltre, Sophos X-Ops è riuscita in pochi minuti a creare centinaia di siti simili semplicemente premendo un pulsante.
Cybercrimine e AI
Ben Gelman, Senior Data Scientist di Sophos
È naturale – e prevedibile – che i criminali sfruttino le nuove tecnologie per automatizzare le loro attività. Le email di spam sono state un importante passo avanti nella tecnologia al servizio delle truffe perché ha cambiato la scala delle relative attività. Le nuove AI sono destinate a fare lo stesso: dovesse esistere una tecnologia AI capace di creare minacce automatizzate complete, prima o poi le persone la utilizzerebbero. Abbiamo già assistito all’integrazione di elementi di AI generativa nelle truffe classiche, come testi o fotografie prodotti da AI, per adescare vittime.Tuttavia, uno dei motivi che ci hanno spinto a effettuare questa ricerca è quello di restare un passo avanti rispetto ai cybercriminali. Creando un sistema per la generazione di siti fraudolenti su vasta scala ben più avanzato dei tool attualmente impiegati dai criminali, abbiamo l’opportunità di analizzare la minaccia e affrontarla prima che possa proliferare.
Le opinioni dei cybercriminali
Per capire cosa pensano i cybercriminali della AI, Sophos X-Ops ha esaminato quattro forum del dark web alla ricerca di conversazioni inerenti i modelli LLM. Sebbene il ricorso alla AI da parte dei cybercriminali sia solo agli inizi, all’interno del dark web si discute sulle potenzialità di questa tecnologia ai fini del social engineering. Sophos X-Ops ha già verificato l’impiego di AI nelle criptotruffe a sfondo romantico.
Imitazioni di ChatGPT
Sophos X-Ops ha inoltre scoperto che la maggioranza dei post riguardava la vendita di account ChatGPT compromessi e dei cosiddetti “jailbreak”. Questi sono sistemi che permettono di aggirare le protezioni integrate negli LLM così da sfruttarli per obiettivi illeciti. Sophos X-Ops ha trovato anche dieci derivati da ChatGPT che, secondo i relativi autori, possono essere usati per lanciare cyberattacchi e sviluppare malware. Le reazioni di fronte a questi tool e ad altre applicazioni illecite degli LLM non sono univoche. Molti criminali temono addirittura che gli autori di queste imitazioni di ChatGPT stiano tentando di truffarli.
Sono più interessanti le criptovalute
Christopher Budd, Director, X-Ops research di Sophos
Per quanto dal lancio di ChatGPT vi siano state notevoli preoccupazioni sul possibile abuso della AI da parte dei cybercriminali, la ricerca ha rilevato che per ora nell’underground circola più scetticismo che entusiasmo. In due dei quattro forum del dark web che abbiamo analizzato c’erano solo 100 post dedicati alla AI. Per confronto, nello stesso periodo sono stati pubblicati ben 1.000 post sul tema delle criptovalute.Abbiamo visto che alcuni cybercriminali hanno provato a creare malware o tool di attacco mediante LLM. Tuttavia i risultati sono stati alquanto rudimentali e spesso accolti con scetticismo dagli altri utenti. In un caso, un cybercriminale deciso a dimostrare le potenzialità di ChatGPT ha rivelato inavvertitamente informazioni significative sulla sua reale identità. Abbiamo persino trovato numerosi articoli d’opinione relativi ai possibili effetti negativi della AI sulla società e alle implicazioni etiche del suo utilizzo. In altre parole, almeno per ora, pare che i dibattiti sugli LLM in corso tra cybercriminali siano gli stessi di chiunque altro.