Detenga a los scrapers y los especuladores con Akamai Content Protector
Le damos la bienvenida a la era de los scrapers web evasivos y a la solución personalizada de Akamai para detenerlos: Akamai Content Protector.
En el comercio electrónico, los scrapers desempeñan una parte esencial y productiva del ecosistema; por ejemplo, la búsqueda de bots puede hacer ping para buscar contenido nuevo que desee mostrar en las búsquedas públicas, los bots de compras de consumidores pueden resaltar sus productos en sitios de comparación, los bots pueden recopilar de forma eficaz la información más reciente sobre los productos para que sus partners la compartan con sus clientes, etc.
Lamentablemente, los bots scrapers también pueden causar una serie de problemas, como sitios web más lentos, tasas de conversión más bajas, pérdidas competitivas y falsificadores que utilicen su contenido para hacer que sus productos parezcan legítimos. Además de que los scrapers cada vez son más evasivos y sofisticados.
Mayor potencial de beneficios de los atacantes
Antes de la pandemia de COVID-19, los bots scrapers se consideraban poco sofisticados y relativamente fáciles de detectar. Sin embargo, a partir de 2020, el potencial de los beneficios de los atacantes aumentó debido a varios factores, entre los que se incluyen:
Crisis y escasez de la cadena de suministro, que incluía todo, desde comestibles básicos y leche de fórmula para bebés hasta electrodomésticos de cocina y coches
La escasez de vacunas (¡y citas para vacunas!) en los primeros días de la pandemia
La popularidad de los billetes de avión y las reservas de hoteles una vez que todo el mundo empezó a viajar de nuevo
El deseo febril de artículos tradicionalmente codiciados, como entradas de concierto, dado el ansia de entretenimiento de la gente que quería salir de nuevo
El potencial de beneficios impulsa la motivación de los operadores de bots
Estas oportunidades de ganar dinero están motivando a los operadores de bots a innovar. Los scrapers se volvieron más especializados y sofisticados gracias al uso de evasiones únicas diseñadas por varios atacantes que se combinaron para lanzar ataques bien financiados contra objetivos altamente investigados.
Los scrapers también utilizan técnicas exclusivas de esta clase de bots, por lo que requieren detecciones que busquen específicamente dichas técnicas. De hecho, en la mayoría de los casos, los ataques de scraping utilizan una combinación de bots y otras técnicas (como complementos) para llevar a cabo la cadena de ataques.
¿Cuáles son los efectos perjudiciales de los ataques de scraping?
Los ataques de scraping pueden dar lugar a muchos problemas costosos para las organizaciones, entre los que se incluyen:
Costosos errores en la toma de decisiones. Cuando las empresas no pueden distinguir el tráfico de bots del tráfico humano, toman malas decisiones sobre productos populares y cómo optimizar sus resultados de marketing.
Mayores costes de TI. Los scrapers se ejecutan de forma continua hasta que se detienen, por lo que aumentan los costes de servidores y distribución a medida que las organizaciones gestionan el tráfico de bots no deseado.
Degradación del rendimiento del sitio. Las organizaciones ofrecen una experiencia de usuario deficiente debido a un rendimiento más lento de los sitios y las aplicaciones.
Menores tasas de conversión de ventas. Los consumidores odian los sitios lentos. Y cuando los scrapers dañan el rendimiento de un sitio, esos consumidores compran en otro lugar. El abandono de los carritos y el menor número de visitas de vueltas al sitio se traducen en menos conversiones y menos ventas para los sitios transaccionales.
Inteligencia/espionaje competitivos. Los competidores extraen información del sitio web de una organización para reducir los precios y realizar otros cambios en sus propias ofertas, lo que garantiza una batalla constante para ganar clientes.
Vigilancia de acaparación de inventario/reventa. Los scrapers (a veces llamados especuladores en este caso) son el primer paso de una cadena de ataques de acaparación de inventario. Los especuladores hacen ping a los sitios objetivo constantemente para encontrar productos disponibles, luego los agregan a los carros, haciendo que esos productos no estén disponibles para los clientes reales.
Impostores que fingen ser la organización o los productos originales. Los falsificadores utilizan contenido de los scrapers para crear sitios falsos y catálogos de productos para engañar a los usuarios a fin de que piensen que están comprando bienes legítimos en lugar de falsificaciones.
Robo de público y "ojos" a las empresas de medios de comunicación. Los atacantes pueden extraer contenido y colocarlo en sus propios sitios, lo que provoca que la organización legítima pierda visitas y posibles ingresos por publicidad.
Akamai Content Protector: una solución especializada para scrapers y especuladores
Akamai presenta Content Protector, una solución desarrollada para detener los scrapers dañinos sin bloquear los scrapers buenos que las empresas necesitan para su éxito empresarial. Content Protector incluye detecciones específicamente diseñadas para identificar ataques de scraping perjudiciales.
Las capacidades personalizadas de Content Protector incluyen:
Detección
Clasificación de riesgos
Estrategia de respuesta
Detección
La detección incluye un conjunto de métodos de detección basados en el aprendizaje automático que evalúan los datos recopilados tanto en el cliente como en el servidor:
Evaluación a nivel de protocolo. El reconocimiento de huella de protocolo evalúa la forma en que el cliente se conecta al servidor en las diferentes capas y verifica que los parámetros negociados se alineen con los parámetros esperados de los navegadores web y las aplicaciones móviles más comunes.
Evaluación a nivel de aplicación. Esta evaluación determina si el cliente puede ejecutar alguna lógica empresarial escrita en JavaScript. Cuando el cliente ejecuta JavaScript, Content Protector recopila las características del dispositivo y del navegador, así como las preferencias del usuario (reconocimiento de huella). Estos puntos de datos diferentes se compararán con los datos a nivel de protocolo para verificar la coherencia.
Interacción del usuario. Las métricas evalúan que una persona interactúe con el cliente a través de periféricos estándar como pantallas táctiles, teclados y ratones. La falta de interacción o la interacción anómala suele estar asociada al tráfico de bots.
Comportamiento del usuario. Esta capacidad analiza el recorrido del usuario por el sitio web. Las botnets suelen perseguir contenido específico, lo que da lugar a un comportamiento significativamente diferente al del tráfico legítimo.
Detección de navegador sin interfaz. Se trata de un JavaScript personalizado que se ejecuta en el cliente para buscar indicadores que dejan los navegadores sin interfaz, incluso cuando se ejecutan en modo oculto.
Clasificación de riesgos
Content Protector proporciona una clasificación determinista y procesable del tráfico (riesgo bajo, riesgo medio o riesgo alto) en función de las anomalías detectadas durante la evaluación. El tráfico clasificado como de alto riesgo debe tener una tasa baja de falsos positivos.
Estrategia de respuesta
El producto se compone de un conjunto de estrategias de respuesta, incluida la sencilla acción de supervisión y denegación, así como otras técnicas más avanzadas, como cebos, que retrasan a propósito las conexiones entrantes, o distintos tipos de acciones de desafío. Los desafíos criptográficos suelen ser más fáciles de usar que los desafíos de tipo CAPTCHA a la hora de tratar de reducir la tasa de falsos positivos.