Content Protector di Akamai ferma gli attacchi di web scraping

Si tratta del primo prodotto progettato ad hoc per le particolari caratteristiche di questo tipo di attacchi.

web scraping

Content Protector di Akamai è in grado di bloccare gli attacchi di web scraping ma senza bloccare il traffico funzionale alle aziende per migliorare le proprie attività. I bot scraper sono una parte fondamentale dell’ecosistema del commercio. Infatti cercano nuovi contenuti, comparano i prezzi e raccolgono informazioni aggiornate sui prodotti da condividere con i consumatori. Sfortunatamente, i bot scraper vengono anche usati per scopi illeciti: diminuire la concorrenza, monitorare le informazioni prima di attacchi sfruttando le scorte e la contraffazione di prodotti e siti web.

L’attività dei bot scraper

I bot scraper, inoltre, eseguono il ping dei siti h24, 7/7, a meno che non vengano fermati, in modo da danneggiare le prestazioni del sito. Questo a sua volta provoca frustrazione nei consumatori e li induce ad abbandonare l’acquisto. I bot scraper sono diventati anche molto più sfuggenti e sofisticati nel corso degli ultimi anni. Akamai Content Protector aiuta a rilevare e mitigare i bot scraper più elusivi in grado di sottrarre contenuti per scopi illeciti.

Cosa offre al clienti Content Protector

Questa soluzione migliora le performance dei siti, le user experience e la protezione della proprietà intellettuale. Facilitando, al contempo, l’esecuzione di migliori operazioni di rilevamento e la riduzione dei falsi negativi senza incrementare il numero di falsi positivi. Il prodotto è pensato per le aziende che devono proteggere la loro reputazione e i potenziali ricavi poiché offre operazioni di rilevamento su misura, che includono:

  • Valutazione a livello di protocollo. Il fingerprinting del protocollo esamina il modo con cui i visitatori si connettono al vostro sito per garantire che si tratti di utenti legittimi. Inoltre, valuta il modo con cui il client stabilisce la connessione con il server ai vari livelli del modello OSI (Open Systems Interconnection). Verificando che i parametri negoziati siano allineati con quelli previsti dai più comuni browser web e applicazioni mobili.
  • Valutazione a livello di applicazione. Viene valutata l’eventuale esecuzione della logica aziendale scritta in JavaScript da parte del client. Se il client esegue JavaScript, raccoglie le caratteristiche di browser e dispositivi, oltre alle preferenze degli utenti. Questi dati vengono confrontati e incrociati con quelli a livello di protocollo per verificare la coerenza.
  • Interazione dell’utente. Vengono analizzate le interazioni degli utenti per distinguere tra il traffico di bot e quello umano. Valuta il modo in cui gli utenti interagiscono con dispositivi quali touch screen, tastiere e mouse, identificando i bot attraverso la loro mancanza di interazione o modelli di utilizzo anomali.
  • Comportamento dell’utente. Monitora il comportamento dei visitatori sul vostro sito web per identificare schemi insoliti che possono indicare la presenza di bot.
  • Classificazione dei rischi. Fornisce una classificazione del traffico a basso, medio o alto rischio di tipo deterministico e utilizzabile, sulla base delle anomalie rilevate durante la valutazione.

Gli attacchi di web scraping li ferma Content Protector

  • Rupesh Chokshi, SVP e GM Application Security di Akamai
    Content Protector è più di un semplice strumento di sicurezza, è una risorsa preziosa per le aziende. Proteggendo le risorse digitali dagli attacchi di web scraping, la soluzione impedisce alla concorrenza di sotto quotare le vostre offerte. Inoltre migliora le performance dei siti per mantenere i clienti coinvolti e protegge il brand dalle contraffazioni. Content Protector fornisce un valore commerciale diretto per far crescere il business digitale in tutta sicurezza.