F-Secure rivela che gli attaccanti umani stanno concentrando i loro sforzi sulla manipolazione dei sistemi di Intelligenza Artificiale esistenti.
È stato pubblicato un nuovo rapporto pubblicato dal consorzio SHERPA – un progetto dell’EU che studia l’impatto dell’IA sull’etica e sui diritti umani a cui F-Secure ha aderito nel 2018. Il rapporto rileva che nonostante gli attaccanti umani abbiano accesso alle tecniche di apprendimento automatico, attualmente stanno concentrando la maggior parte dei loro sforzi sulla manipolazione per scopi dannosi dei sistemi di Intelligenza Artificiale esistenti.
Il focus primario di questo studio è sul modo in cui gli attori malintenzionati possono abusare dell’intelligenza artificiale, dell’apprendimento automatico e dei sistemi informativi intelligenti. I ricercatori hanno identificato una varietà di usi potenzialmente dannosi per l’intelligenza artificiale che sono alla portata degli attaccanti di oggi, compresa la creazione di sofisticate campagne di disinformazione e ingegneria sociale.
E se da un lato la ricerca non ha trovato prove definitive che gli attori malintenzionati stiano attualmente utilizzando l’intelligenza artificiale per potenziare gli attacchi informatici, dall’altro è emerso che gli avversari stanno già attaccando e manipolando i sistemi di IA esistenti utilizzati dai motori di ricerca, dai social media, dai siti web di recommendation, ecc.
Andy Patel, ricercatore del centro di eccellenza per l’intelligenza artificiale di F-Secure
Alcune persone identificano erroneamente l’intelligenza artificiale con l’intelligenza umana, e penso che sia per questo che associano la minaccia dell’IA ai robot killer e ai computer fuori controllo. Ma gli attacchi umani contro l’IA avvengono in continuazione. Attacchi Sybil progettati per contaminare i sistemi di IA che le persone usano ogni giorno, come i sistemi di reputazione online, sono un evento comune. Ci sono persino aziende che vendono servizi per supportare tutto questo. Quindi, per ironia della sorte, i sistemi di IA di oggi hanno più da temere dagli umani che non il contrario. Questi tipi di attacchi sono estremamente difficili da rilevare per i provider di servizi online ed è probabile che questo comportamento sia molto più diffuso di quanto chiunque possa pensare
Gli attacchi Sybil coinvolgono una singola entità che crea e controlla più account fasulli al fine di manipolare i dati che l’IA utilizza per prendere decisioni. Un esempio popolare di questo attacco è la manipolazione del posizionamento nei motori di ricerca o dei sistemi di reputazione per promuovere o abbassare determinati contenuti. Tuttavia, questi attacchi possono anche essere usati per il social engineering di individui in scenari di attacco mirati.
Ulteriori risultati e argomenti trattati nello studio includono:
– Gli avversari continueranno a imparare come compromettere i sistemi di IA man mano che la tecnologia si diffonde
– Il numero di modi in cui gli attaccanti possono manipolare l’output di IA rende difficile individuare e combattere tali attacchi
– I poteri in gioco nella competizione per sviluppare i migliori tipi di intelligenza artificiale per scopi offensivi/difensivi possono finire per scatenare una “corsa agli armamenti di intelligenza artificiale”
– Cercare di proteggere i sistemi di IA contro gli attacchi può causare problemi etici (ad esempio, un maggiore monitoraggio dell’attività può violare la privacy degli utenti)
– Gli strumenti e i modelli di intelligenza artificiale sviluppati da attori di minacce avanzati e dotati di risorse adeguate finiranno per proliferare ed essere adottati da avversari meno esperti