È impossibile prevedere se big data e Intelligenza Artificiale avranno un impatto sulle dinamiche della cybersecurity. Stormshield mette in guardia le organizzazioni.
In molti casi di hackeraggio illecito le tecniche tradizionali sono state modificate tenendo conto dell’uso dei big data. Pur tentando sempre di massimizzare il proprio profitto, l’hacker non può non considerare che se il prezzo del riscatto è troppo alto, la vittima si rifiuterà di pagare o informerà la polizia. Per raccogliere tali dati i cybercriminali si avvalgono sia di tecniche di ingegneria sociale, sia di applicazioni dedicate all’analisi di informazioni sul bersaglio liberamente accessibili. I social diventano una miniera d’oro e le informazioni personali condivise una vulnerabilità.
L’ingegneria sociale è anche usata per lo spear phishing: utilizzando i dati personali dell’utente, i cybercriminali sono in grado di profilarlo e inviargli messaggi personalizzati – proprio come farebbe un buon programma di marketing.
A fronte del crescente impiego di chatbots nel marketing, gli esperti hanno già rilevato in che modo l’AI può essere impiegata in modo fraudolento. Senza parlare del rischio che i veri robot vengano attaccati e che le loro conversazioni vengano intercettate. Per evitare tutto ciò sarebbe opportuno cifrare e archiviare in maniera sicura eventuali messaggi, prima che siano cancellati in un lasso di tempo predefinito.
AI: buzzword o opportunità reale?
Oltre a queste pratiche, apparentemente ispirate al mondo del marketing, l’intelligenza artificiale è fonte di interesse e discussione sul web. È arrivato però il momento di sfatare un mito: quello del malware ultrapotente, pilotato dall’intelligenza artificiale e capace di contrastare qualsiasi sistema di protezione che vi si opponga.
Gli unici episodi conosciuti di attacchi ai sistemi informativi condotti tramite applicazioni IA sono da collocarsi in ambito accademico. Come la DARPA Cyber Grand Challenge di Las Vegas nel 2016, dove, per la prima volta, sette sistemi di intelligenza artificiale si sono sfidati. La miglior strategia di difesa è ancora la formazione di team specializzati. E forse un giorno saranno i governi a investire massicciamente in programmi di attacco alimentati dall’intelligenza artificiale, chi può dirlo.
L’intelligenza artificiale è meglio usarla in difesa
Se parliamo di difesa dei computer, l’intelligenza artificiale ha un impatto più diretto. Combinata ai big data, può essere utilizzata per analizzare un grande numero di file dal comportamento sospetto e per identificare in maniera chiara quelli dalla natura malevola. Analisi dettagliate possono contribuire alla produzione di patch e aggiornamenti che impediscono agli hacker di cogliere di sorpresa il Responsabile della Sicurezza delle Informazioni (CISO) e di ridurre il rischio rappresentato dagli attacchi zero-day.
Per quanto facilitante, l’IA non può operare nell’ambito della sicurezza informatica senza l’ausilio dell’essere umano, dando vita a un paradosso: la sua utilità nell’ambito della sicurezza IT dipende dalla sua interazione con gli umani oltre che dalla mole di file sospetti con cui va alimentata immediatamente tramite soluzioni di sicurezza di nuova generazione. In altri ambiti invece, come ad esempio nella guida autonoma o nel gaming, l’intelligenza artificiale è molto più indipendente.
Paul Fariello, Security Researcher di Stormshield
L’intelligenza artificiale non garantisce comunque un risultato esatto. Basandosi su criteri predefiniti dagli esseri umani, essa analizza il comportamento dei file, calcolando la probabilità che siano legittimi o sospetti, e a volte non riesce ad indentificare le differenze. Prendiamo l’esempio di un malware che sfrutta la velocità di calcolo di un processore per minare criptovalute. Il suo comportamento è molto simile a quello di un programma legittimo, progettato dagli umani allo stesso scopo (minare criptovalute).
In un contesto completamente diverso, ma comunque importante per capire la limitata capacità di discernimento dell’IA, si può citare l’esempio di Amazon, costretta a mettere fine a un programma interno sviluppato per facilitare il processo di reclutamento del personale. Il motivo? Il sistema si basava su modelli di curricula presentati alla società negli ultimi 10 anni. La maggior parte di essi inviati da uomini: le candidature femminili venivano penalizzate automaticamente dal programma, che aveva “imparato” che i profili maschili erano preferibili rispetto a quelli femminili. Ne derivava quindi una discriminazione di genere, che ha portato l’azienda ad abbandonare il progetto.
E quindi evidente che, come per gli strumenti impiegati dagli hacker, disporre di grandi quantitativi di dati risulta essenziale anche per la protezione delle potenziali vittime. Per il gatto, come per il topo, la corsa alla raccolta dei dati non è che all’inizio..