Bloccate gli scraper e gli scalper con Akamai Content Protector
Benvenuti nell'era dei web scraper e della loro nemesi: Akamai Content Protector.
Nel settore dell'e-commerce, gli scraper rappresentano una componente importante e produttiva dell'intero ecosistema. Ad esempio, i bot di ricerca sono utili per trovare nuovi contenuti da visualizzare nelle ricerche pubbliche, i bot di acquisto possono evidenziare i prodotti nei siti di comparazione, i bot possono raccogliere in modo efficiente le informazioni più recenti sui prodotti in modo che i partner possano condividerle con i clienti e così via.
Purtroppo, I bot di tipo "scraper" possono anche causare un'ampia gamma di problemi: il rallentamento dei siti, la riduzione dei tassi di conversione, perdite rispetto alla concorrenza e contraffazioni di contenuti volte a far sembrare legittimo un prodotto falso. Inoltre, gli attacchi di scraping stanno diventando sempre più elusivi e sofisticati.
Maggiore potenziale di profitto per gli autori degli attacchi
Prima della pandemia da COVID-19, i bot di tipo "scraper" erano generalmente considerati poco sofisticati e relativamente facili da individuare. A partire dal 2020, tuttavia, il potenziale di profitto per gli autori degli attacchi è aumentato a causa di diversi fattori, tra cui:
Interruzioni della supply chain e difficoltà di approvvigionamento che hanno coinvolto gli articoli più disparati, dai prodotti di uso quotidiano, agli alimenti per bambini, agli elettrodomestici fino alle auto.
Difficoltà di reperimento dei vaccini (e di prenotazione degli appuntamenti per i vaccini!) nei primi giorni della pandemia.
Richiesta elevatissima di biglietti aerei e prenotazioni alberghiere, una volta ripristinati i viaggi.
Enorme desiderio di intrattenimento, ad esempio di concerti, da parte di coloro che finalmente potevano abbandonare il lock-down.
I potenziali ricavi rappresentano un incentivo irresistibile per gli operatori di bot
Queste opportunità di guadagno stanno spingendo gli operatori di bot a innovare le loro tecnologie. Gli attacchi di scraping sono diventati sempre più sofisticati e specializzati, grazie all'adozione di tecniche elusive progettate da soggetti diversi e combinate insieme al fine di sferrare attacchi ben finanziati su obiettivi primari.
Gli scraper utilizzano, inoltre, tecniche specifiche per questa classe di bot, che richiedono rilevamenti altrettanto specifici. Nella maggior parte dei casi, gli attacchi di scraping utilizzano una combinazione di bot e altre tecniche (come i plug-in) per eseguire una catena di attacchi.
Quali sono le ripercussioni negative di un attacco di scraping?
Gli attacchi di scraping possono causare alle organizzazioni problemi di natura finanziaria, ad esempio:
Errori nei processi decisionali. Quando le aziende non riescono a distinguere il traffico bot dal traffico umano, possono prendere decisioni sbagliate sui prodotti più richiesti e su come ottimizzare i risultati di marketing.
Aumento dei costi IT. Gli scraper non interrompono il loro lavoro finché non vengono bloccati, e questo aumenta i costi legati ai server e alla delivery poiché le organizzazioni gestiscono traffico bot indesiderato.
Deterioramento delle performance del sito. La user experience viene compromessa a causa del rallentamento delle performance dei siti e delle app.
Riduzione dei tassi di conversione delle vendite. I consumatori detestano i siti lenti e, quando gli scraper rallentano le performance del sito, spostano i loro acquisti altrove. L'abbandono del carrello e un minor numero di visite si traducono in conversioni più basse e in un minor numero di vendite per i siti transazionali.
Intelligence competitiva e spionaggio. Le aziende concorrenti possono sottrarre informazioni dal sito di un'organizzazione per influenzarne i prezzi e apportare modifiche alle loro offerte, in una costante corsa all'acquisizione di clienti.
Sorveglianza dei siti e furto degli inventari. Gli scraper (talvolta chiamati scalper) rappresentano il primo passo nella realizzazione di una catena di attacchi mirati al furto dell'inventario. Gli scalper monitorano costantemente siti web mirati per trovare i prodotti disponibili, quindi li aggiungono ai carrelli, rendendo questi prodotti non disponibili per i clienti reali.
Gli impostori si spacciano per l'organizzazione o fingono di vendere prodotti originali. Gli autori di atti di contraffazione utilizzano i contenuti estratti per realizzare siti e cataloghi di prodotti falsi, al fine di convincere gli utenti che si tratta di beni legittimi e non di contraffazioni.
Sottrazione di pubblico alle aziende di contenuti multimediali. Gli autori degli attacchi possono sottrarre i contenuti e aggiungerli ai loro siti, facendo in modo che l'organizzazione legittima perda visitatori e potenziali ricavi pubblicitari.
Akamai Content Protector: una soluzione specifica per il blocco di scraper e scalper
Akamai è lieta di presentare Content Protector, una soluzione sviluppata per bloccare gli scraper dannosi senza interrompere il lavoro degli scraper produttivi di cui le aziende hanno bisogno per il loro business. Content Protector include tecniche di rilevamento progettate specificamente per identificare attacchi di scraping dannosi.
Le funzionalità personalizzate di Content Protector includono:
Rilevamento
Classificazione dei rischi
Strategia di risposta
Rilevamento
Le tecniche di rilevamento comprendono una serie di metodi basati su ML (Machine Learning) in grado di valutare i dati raccolti lato client e lato server:
Valutazione a livello di protocollo. Attraverso l'impronta digitale del protocollo si valuta in che modo il client stabilisce la connessione con il server ai vari livelli, verificando che i parametri negoziati siano allineati con quelli previsti dai più comuni browser web e dalle applicazioni mobili.
Valutazione a livello di applicazione. Viene valutata l'eventuale esecuzione della logica aziendale scritta in JavaScript da parte del client. Se il client esegue JavaScript, Content Protector identifica le caratteristiche di browser e dispositivi, oltre alle preferenze degli utenti (impronta digitale). Questi vari punti dati vengono quindi confrontati e verificati sulla base dei dati a livello di protocollo per valutarne la coerenza.
Interazione dell'utente. Attraverso le metriche viene analizzata l'interazione dell'utente con il client tramite periferiche standard, come touchscreen, tastiera e mouse. La mancanza di interazione o un'interazione anomala è, solitamente, associata al traffico di bot.
Comportamento dell'utente. Questa funzionalità analizza il comportamento dell'utente sul sito web. Le botnet, di solito, prendono di mira contenuti specifici, causando un comportamento molto diverso rispetto al traffico legittimo.
Rilevamento dei browser headless. Un JavaScript personalizzato ed eseguito lato client alla ricerca di indicatori lasciati dai browser headless, anche in modalità invisibile.
Classificazione dei rischi
Content Protector fornisce una classificazione del traffico (basso, medio o alto) di tipo deterministico e utilizzabile, sulla base delle anomalie rilevate durante la valutazione. Il traffico classificato come ad alto rischio deve avere un basso tasso di falsi positivi.
Strategia di risposta
Il prodotto include una serie di strategie di risposta, tra cui semplici azioni di monitoraggio e rifiuto oppure azioni più avanzate, ad esempio il il tarpit, che ritarda intenzionalmente le connessioni in entrata, o ancora varie azioni di sfida. Le sfide crittografiche sono generalmente più facili da usare rispetto alle sfide CAPTCHA per ottenere una riduzione nei falsi positivi.