Deepfake e il caso di Taylor Swift. L’opinione di SentinelOne

Per prima cosa è consigliabile avvisare la polizia postale e sporgere denuncia.

Deepfake

SentinelOne parte da Taylor Swift, vittima di immagini deepfake sessualmente esplicite, per spiegare cosa fare se si è vittime di immagini false generate con l’AI. Negli ultimi mesi, il caso della cantautrice oggetto di alcune immagini false diventate subito virali, ha sollevato timori sui pericoli legati all’utilizzo di tool basati sull’AI.

Un caso emblematico

Morgan Wright, Chief Security Advisor di SentinelOne
Consideriamo il caso di Taylor Swift, una donna molto ricca, con un esercito di avvocati a disposizione e conoscenze in tutto il mondo. Persino lei ha avuto difficoltà a difendersi dalle immagini deepfake sessualmente esplicite che circolavano sui social media. Sebbene sia riuscita a bloccarle (ci sono volute 24 ore per farlo), le immagini continuano a circolare su migliaia di altri siti. E il problema aumenta per chi dispone di meno disponibilità economiche di Taylor Swift.

Attirare l’attenzione dei social

Accade che un malintenzionato decida di ottenere riproduzioni audio, video e grafiche del bersaglio identificato per perseguire un obiettivo. A seconda di quale sia la finalità, potrebbe essere la combinazione di un qualunque volto con quello di una seconda persona. Solitamente si intreccia con la pornografia, in quanto tende a infliggere i danni maggiori alla reputazione del personaggio individuato. L’immagine o il video oppure la riproduzione audio che ne deriva viene fatta circolare sui social e descritta con titoli in stile pettegolezzo per attirare l’attenzione e avviare il fenomeno virale.

Immagini deepfake e il caso di Taylor Swift

Morgan Wright, Chief Security Advisor di SentinelOne
Esistono altre varietà di deepfake. Come quelle di natura politica, relazionale, retributiva e di influenza negativa (manipolazione da parte dei governi per influenzare le opinioni). Va sottolineato che le capacità di generare queste riproduzioni dannose sono diventate più facili e più economiche”

Cosa è sconsigliato fare dopo un’immagine deepfake

Morgan Wright, Chief Security Advisor di SentinelOne
Il consiglio è di avvisare immediatamente la polizia postale e di sporgere denuncia. Inoltre, a seconda della tipologia della piattaforma coinvolta, esistono alcune disposizioni che consentono alla persona interessata di presentare un reclamo al provider del servizio e di segnalare la criticità. Dopo un evento di deepfake si sconsiglia di condividere foto, video o file audio sui siti di social media. Per quanto possibile, è opportuno rimuovere ciò che sappiamo essere in circolazione o mettere offline gli account fino a quando non si potrà verificare il rischio.

In conclusione

Bisogna valutare la possibilità di modificare tutte le impostazioni sulla privacy dei canali social per poter limitare l’accesso ai nostri contenuti online. Non sarà facile, ma può aiutare a limitare l’impatto futuro.