Vous avez besoin du Cloud Computing ? Commencez dès maintenant

Luttez contre les extracteurs et les bots de revente avec Akamai Content Protector

Christine Ferrusi Ross

écrit par

Christine Ross

February 06, 2024

Christine Ferrusi Ross

écrit par

Christine Ross

Christine Ross est Senior Product Marketing Manager chez Akamai, où elle dirige les messages de mise sur le marché pour Bot Manager. Avant Akamai, elle a travaillé avec des start-up de blockchain et de sécurité sur l'adéquation produit/marché et le positionnement. Elle a également passé de nombreuses années en tant qu'analyste du secteur, aidant les organisations à acheter et gérer les technologies et services émergents.

Les bots d'extraction peuvent également causer de nombreux problèmes, y compris le ralentissement des sites, des taux de conversion plus faibles, une perte de compétitivité et l'utilisation de votre contenu par des faussaires pour rendre leurs produits de contrefaçon légitimes.

Bienvenue dans l'ère des extracteurs web dissimulés... Heureusement, Akamai propose une solution sur mesure pour les arrêter : Akamai Content Protector.

Dans le domaine de l'e-commerce, les extracteurs (ou scrapers) jouent un rôle essentiel et utile dans l'écosystème. Par exemple, les bots de recherche peuvent détecter de nouveaux contenus à afficher dans les recherches publiques, les bots d'achat grand public peuvent mettre vos produits en évidence sur les comparateurs, des bots peuvent recueillir efficacement les données les plus récentes sur les produits pour que vos partenaires les partagent avec leurs clients, etc.

Malheureusement, les bots d'extraction peuvent également causer de nombreux problèmes, y compris le ralentissement des sites, des taux de conversion plus faibles, une perte de compétitivité et l'utilisation de votre contenu par des faussaires pour rendre leurs produits de contrefaçon légitimes. Sans oublier que les extracteurs sont de plus en plus indétectables et sophistiqués.

Potentiel de profit accru pour les pirates

Avant la pandémie de COVID-19, les bots d'extraction étaient généralement considérés comme peu sophistiqués et relativement faciles à détecter. À partir de 2020, cependant, les gains potentiels sont devenus plus importants pour les attaquants en raison de plusieurs facteurs, notamment :

  • Les chocs et les pénuries dans la chaîne d'approvisionnement, depuis tout ce qui se rapporte aux produits alimentaires de base et aux préparations pour bébés, jusqu'aux appareils électroménagers et aux voitures

  • La rareté des vaccins (et des rendez-vous de vaccination !) dans les premiers jours de la pandémie

  • La popularité des billets d'avion et des réservations d'hôtel une fois que tout le monde a recommencé à voyager

  • La demande frénétique pour des articles traditionnellement très recherchés, comme des billets de concert, lorsque les populations longtemps privées de divertissement ont voulu sortir à nouveau

Les opérateurs de bots sont motivés par le potentiel de profit

Ces opportunités lucratives sont le moteur des opérateurs de bots et les poussent à innover. Les bots d'extraction sont devenus plus spécialisés et sophistiqués, en utilisant des stratégies d'évasion uniques conçues par plusieurs attaquants et combinées de façon à lancer des attaques financées sur des cibles très recherchées.

Les extracteurs utilisent également des techniques propres à cette catégorie de bots. Par conséquent, ils nécessitent des systèmes de détection qui recherchent spécifiquement ces techniques uniques. En fait, dans la plupart des cas, les attaques de scraping utilisent une combinaison de bots et d'autres techniques (comme les plug-ins) pour exécuter la chaîne d'attaque.

Quels sont les effets néfastes des attaques par extraction, ou scraping ?

Les attaques par extraction peuvent entraîner de nombreux problèmes coûteux pour les entreprises, notamment :

  • Des erreurs coûteuses dans la prise de décision. Lorsque les entreprises ne peuvent pas distinguer le trafic de bots du trafic humain, elles prennent de mauvaises décisions concernant les produits populaires et la façon d'optimiser leurs résultats marketing.

  • L'augmentation des coûts informatiques. Les bots d'extraction fonctionnent en continu jusqu'à ce qu'on les arrête, de sorte qu'ils augmentent les coûts de serveur et de diffusion, car les organisations assument le trafic indésirable des bots. 

  • La dégradation des performances du site. Les organisations assurent une expérience utilisateur dégradée en raison de performances plus lentes du site et de l'application.

  • La baisse des taux de conversion des ventes. Les utilisateurs n'aiment pas les sites lents. Et lorsque les bots d'extraction nuisent aux performances du site, les consommateurs achètent ailleurs. Les abandons de paniers et la diminution du nombre de deuxième visite sur le site entraînent une baisse des conversions et des ventes pour les sites transactionnels.

  • La veille concurrentielle/l'espionnage. Les concurrents récupèrent les informations sur le site d'une organisation pour faire baisser les prix et apporter d'autres changements à leur propre offre, entretenant ainsi une course à l'armement constante pour gagner des clients. 

  • L'accaparement/la revente de stocks. Les bots d'extraction (parfois appelés bots de revente dans ce cas, ou scalpers) sont la première étape d'une chaîne d'attaque d'accaparement de stocks. Ces bots de revente fouillent constamment les sites ciblés pour trouver les produits disponibles, puis les ajoutent aux paniers, rendant ces produits indisponibles pour les vrais clients. 

  • Des imposteurs prétendant être l'organisation ou se faisant passer pour les produits d'origine. Des faussaires utilisent le contenu extrait pour créer des faux sites et des faux catalogues de produits dans le but de tromper les utilisateurs en leur faisant croire qu'ils achètent des biens légitimes au lieu de contrefaçons. 

  • Le vol d'audience et de visibilité aux entreprises de médias. Les attaquants peuvent extraire du contenu et le placer sur leurs propres sites, entraînant la perte de visiteurs et de revenus publicitaires potentiels pour l'organisation légitime.

Akamai Content Protector : une solution spécialisée pour les extracteurs et les bots de revente

Akamai présente Content Protector, une solution élaborée pour arrêter les extracteurs nuisibles sans bloquer les bons bots d'extraction, dont les entreprises ont besoin pour réussir. Content Protector inclut des techniques de détection spécialement conçues pour identifier les attaques de scraping dommageables.

Les capacités sur mesure de Content Protector comprennent :

  • La détection

  • La classification des risques

  • Une stratégie de réponse

La détection

La détection comprend un ensemble de méthodes de détection basées sur l'apprentissage automatique qui évalue les données collectées côté client et côté serveur :

  • Évaluation au niveau du protocole. L'analyse de l'empreinte protocolaire permet d'évaluer la façon dont le client établit la connexion avec le serveur au niveau des différentes couches, et vérifie que les paramètres négociés correspondent à ceux attendus des navigateurs Web et des applications pour mobile les plus courants.

  • Évaluation au niveau de l'application. Cette évaluation consiste à évaluer si le client peut exécuter une logique métier rédigée en JavaScript. Lorsque le client exécute JavaScript, les caractéristiques du terminal et du navigateur ainsi que les préférences de l'utilisateur (empreinte) sont collectées par Content Protector. Ces différents points de données seront comparés et recoupés avec les données au niveau du protocole pour vérifier la cohérence.

  • Interaction avec l'utilisateur. Les indicateurs permettent d'analyser l'interaction humaine avec le client via des périphériques standard tels qu'un écran tactile, un clavier ou une souris. Le manque d'interaction ou une interaction anormale est généralement associé au trafic des bots.

  • Comportement de l'utilisateur. Cette fonctionnalité consiste à analyser le parcours de l'utilisateur sur le site Web. Les botnets s'attaquent généralement à un contenu spécifique, ce qui entraîne un comportement significativement différent du trafic légitime.

  • Détection de navigateurs sans interface. Il s'agit d'un JavaScript personnalisé s'exécutant côté client pour rechercher les indicateurs laissés par les navigateurs sans interface même en mode furtif.

La classification des risques

Content Protector fournit une classification déterministe et exploitable du trafic (risque faible, risque moyen ou risque élevé) en fonction des anomalies détectées lors de l'évaluation. Le trafic classé comme élevé doit avoir un faible taux de faux positifs.

Une stratégie de réponse

Le produit comprend un ensemble de stratégies de réponse, y compris l'action simple de surveillance et d'exclusion, et des techniques plus avancées telles que le système de répulsion (« tarpit »), qui retarde volontairement les connexions entrantes, ou divers types d'actions de mise au défi. Les crypto-défis sont généralement plus conviviaux que les défis CAPTCHA lorsqu'il s'agit de réduire le taux de faux positifs.



Christine Ferrusi Ross

écrit par

Christine Ross

February 06, 2024

Christine Ferrusi Ross

écrit par

Christine Ross

Christine Ross est Senior Product Marketing Manager chez Akamai, où elle dirige les messages de mise sur le marché pour Bot Manager. Avant Akamai, elle a travaillé avec des start-up de blockchain et de sécurité sur l'adéquation produit/marché et le positionnement. Elle a également passé de nombreuses années en tant qu'analyste du secteur, aidant les organisations à acheter et gérer les technologies et services émergents.