Stoppen Sie Scraper und Scalper mit Akamai Content Protector
Wir befinden uns in der Ära der schwer aufzuspürenden Webscraper. Zum Glück gibt es eine maßgeschneiderte Lösung von Akamai, um sie aufzuhalten: Akamai Content Protector.
Im E-Commerce nehmen Scraper eine wichtige und produktive Rolle im Ökosystem ein: Such-Bots pingen beispielsweise neue Inhalte an, die Sie in öffentlichen Suchanfragen anzeigen möchten, einige für Verbraucher relevante Shopping-Bots können Ihre Produkte auf Vergleichsseiten hervorheben und Bots können effizient die neuesten Produktinformationen für Ihre Partner sammeln, um sie mit ihren Kunden zu teilen.
Leider können Scraper-Bots auch verschiedene Probleme verursachen, z. B. langsamere Websites, niedrigere Konversionsraten, Wettbewerbsverluste und Fälscher, die Ihre Inhalte dazu verwenden, die eigenen Waren legitim aussehen zu lassen. Scraper werden immer komplexer und sie lassen sich immer schwerer aufspüren.
Erhöhtes Gewinnpotenzial für Angreifer
Vor der COVID-19-Pandemie galten Scraper-Bots im Allgemeinen als simpel und relativ leicht zu erkennen. Ab 2020 stieg das Gewinnpotenzial für Angreifer jedoch aufgrund mehrerer Faktoren an, darunter:
Umfassende Probleme und Engpässe in der Lieferkette bei einer Vielzahl von Produkten – von einfachen Lebensmitteln über Babynahrung bis hin zu Küchengeräten und Autos
Die Knappheit an Impfstoffen (und Impfterminen) zu Beginn der Pandemie
Die Beliebtheit von Flugtickets und Hotelreservierungen, sobald die Menschen wieder reisen konnten
Der Wunsch nach immer schon begehrten Gegenständen wie Konzertkarten, da die Bevölkerung nach einer langen Durststrecke ohne Unterhaltung wieder ausgehen wollte
Gewinnpotential als Motivator für Bot-Betreiber
Diese Aussicht auf Profit motiviert Bot-Betreiber zu Innovationen. Scraper wurden immer spezialisierter und raffinierter, da sie einzigartige Ausweichmethoden nutzten, die von mehreren Angreifern entwickelt wurden. Gemeinsam führten sie so gut finanzierte Angriffe auf Ziele durch, die vorher umfassend ausgespäht wurden.
Scraper bringen Techniken zum Einsatz, die für diese Bot-Klasse spezifisch sind. Daher sind Erkennungsmethoden nötig, die speziell nach diesen einzigartigen Techniken suchen. In den meisten Fällen kommt bei Scraping-Angriffen eine Kombination aus Bots und anderen Techniken (wie Plug-ins) zur Anwendung, um die Angriffskette auszuführen.
Welche negativen Auswirkungen haben Scraping-Angriffe?
Scraping-Angriffe können viele kostspielige Probleme für Unternehmen verursachen, darunter:
Teure Fehler bei der Entscheidungsfindung. Wenn Unternehmen Bot-Traffic nicht von menschlichem Traffic unterscheiden können, treffen sie schlechte Entscheidungen darüber, welche Produkte beliebt sind und wie sie ihre Marketingergebnisse optimieren können.
Höhere IT-Kosten. Scraper laufen kontinuierlich, bis sie gestoppt werden. Da Unternehmen unerwünschten Bot-Traffic bedienen, erhöhen sich die Server- und Bereitstellungskosten.
Verschlechterung der Websiteperformance. Unternehmen können aufgrund der langsameren Website- und App-Performance nur ein beeinträchtigtes Nutzererlebnis bieten.
Geringere Konversionsraten. Verbraucher haben keine Geduld für langsame Websites. Wenn Scraper die Websiteperformance beeinträchtigen, kaufen diese Verbraucher anderswo ein. Abgebrochene Käufe und weniger Website-Besuche führen zu geringeren Conversions und weniger Umsätzen bei Websites mit Transaktionen.
Informationen über Mitbewerber/Spionage. Wettbewerber nutzen Informationen von der Website eines Unternehmens, um die Preise zu unterbieten und andere Änderungen an ihren eigenen Angeboten vorzunehmen, was zu einem ständigen Wettkampf um Kunden führt.
Inventory Hoarding/Scalping-Überwachung. Scraper (in diesem Fall auch Scalper genannt) sind der erste Schritt in einer Inventory-Hoarding-Angriffskette. Scalper pingen ständig Websites an, um verfügbare Produkte zu finden. Diese fügen sie dann ihren Warenkörben hinzu, sodass diese Produkte für echte Kunden nicht verfügbar sind.
Betrüger, die vorgeben, dass es sich um die ursprüngliche Organisation oder Produkte handelt. Fälscher verwenden gestohlene Inhalte zum Erstellen von gefälschten Websites und Produktkatalogen. Dadurch sollen Nutzer irrtümlich annehmen, dass sie legitime Waren und keine Fälschungen erwerben.
Diebstahl von Publikum und einzigartigen Inhalten bei Medienunternehmen. Angreifer können Inhalte stehlen und auf ihren eigenen Websites platzieren. Das führt dazu, dass das legitime Unternehmen Besucher und potenzielle Werbeeinnahmen verliert.
Akamai Content Protector: Eine maßgeschneiderte Lösung gegen Scraper und Scalper
Mit Content Protector führt Akamai nun eine Lösung ein, die eigens dafür entwickelt wurde, schädliche Scraper zu stoppen – und zwar ohne dabei die guten Scraper zu blockieren, die für den Geschäftserfolg nötig sind. Content Protector bietet auch Erkennungstechniken, die speziell auf das Entdecken schädlicher Scraping-Angriffe zugeschnitten sind.
Zu den maßgeschneiderten Funktionen von Content Protector gehören:
Erkennung
Risikoklassifizierung
Reaktionsstrategie
Erkennung
Die Erkennung umfasst eine Reihe von Erkennungsmethoden, die auf maschinellem Lernen basieren, um die sowohl auf Client- als auch auf Serverseite erfassten Daten zu bewerten:
Bewertung auf Protokollebene. Mit dem Protokoll-Fingerprinting wird bewertet, wie der Client die Verbindung zum Server auf den verschiedenen Ebenen herstellt. Dabei wird überprüft, ob die vereinbarten Parameter mit denen übereinstimmen, die von den gängigsten Webbrowsern und mobilen Anwendungen erwartet werden.
Bewertung auf Anwendungsebene. Die Bewertung beurteilt, ob der Client eine in JavaScript geschriebene Geschäftslogik ausführen kann. Wenn der Client JavaScript ausführt, erfasst Content Protector die Geräte- und Browsereigenschaften sowie Nutzereinstellungen. Diese verschiedenen Datenpunkte werden verglichen und zur Überprüfung der Konsistenz mit den Daten auf Protokollebene referenziert.
Nutzerinteraktion. Anhand von Metriken wird über Standard-Peripherie wie Touchscreen, Tastatur und Maus ermittelt, ob ein Mensch mit dem Client interagiert. Mangelnde Interaktion oder anormale Interaktion ist typischerweise ein Hinweis auf Bot-Traffic.
Nutzerverhalten. Diese Funktion analysiert die User Journey auf der Website. Botnets suchen in der Regel nach bestimmten Inhalten, wodurch sich ihr Verhalten signifikant von legitimem Traffic unterscheidet.
Erkennung von Browsern ohne Header. Hierbei handelt es sich um ein nutzerdefiniertes JavaScript, das clientseitig ausgeführt wird und nach Indikatoren sucht, die von Browsern ohne Header hinterlassen werden, selbst wenn sie im Stealth-Modus ausgeführt werden.
Risikoklassifizierung
Content Protector bietet eine deterministische und umsetzbare Klassifizierung des Traffics (geringes, mittleres oder hohes Risiko) basierend auf den bei der Bewertung festgestellten Anomalien. Traffic, der als ein hohes Risiko eingestuft wird, muss eine niedrige Rate von False Positives aufweisen.
Reaktionsstrategie
Dieses Produkt umfasst eine Reihe von Reaktionsstrategien wie z. B. einfaches Überwachen und Blockieren sowie fortgeschrittenere Strategien wie Tarpit (absichtliches Verzögern eingehender Verbindungen) oder verschiedene Arten von Challenge-Aktionen. Krypto-Challenges sind im Allgemeinen nutzerfreundlicher als CAPTCHA-Sicherheitsfragen – vor allem beim Versuch die Rate von False Positives zu senken.