Sie sind an Cloud Computing interessiert? Legen Sie jetzt los

Was kratzt da so? Wie Web-Scraper-Bots die Rentabilität Im E-Commerce untergraben

Mitch Mayne

Verfasser

Mitch Mayne

June 25, 2024

Mitch Mayne

Verfasser

Mitch Mayne

Mitch Mayne ist eine bekannte Stimme in der Welt der Cybersicherheit und als ein Vordenker in diesem Bereich Autor verschiedener Fachartikel und Threat-Intelligence-Berichte. Darüber hinaus moderierte er mehrere erfolgreiche Podcast-Reihen und erstellt als Incident Responder proaktive und reaktive Kommunikationspläne für Kunden, die sich gegen Datenverstöße wappnen oder darauf reagieren möchten. Bei Akamai leitet er die Forschungsteams für Threat Intelligence und Cybersicherheit, die mit umfassenden Analysen und Berichten Kunden, politischen Entscheidungsträgern und Branchenakteuren ermöglichen, sich besser vor Cyberkriminellen zu schützen.

Mitch nutzt seine Erfahrung im Journalismus, um umfangreiche technische Inhalte in umsetzbare, nützliche Informationen für normale Geschäftsanwender zu übersetzen. Er verfügt über einen Master-Abschluss in Kommunikation und Medien von der Stanford University.

Bots sind für E-Commerce-Unternehmen wie Insekten für den Garten: Manche sind nützlich, andere schädlich.
Bots sind für E-Commerce-Unternehmen wie Insekten für den Garten: Manche sind nützlich, andere schädlich.

Bots sind für E-Commerce-Unternehmen wie Insekten für den Garten: Manche sind nützlich, andere schädlich. Bots können Traffic auf Ihre Website bringen, Traffic auf eine andere gefälschte Website umleiten oder andere schädliche Pläne verfolgen, z. B. Credential Stuffing genutzt.

In letzter Zeit hat eine Art von Bot besonders die Aufmerksamkeit von E-Commerce-Unternehmen auf sich gezogen: Web-Scraper-Bots. Durch ihre Fähigkeit, unerkannt zu bleiben, können diese Bots heimlich den Gewinn ihrer Opfer schmälern.

Was ist ein Scraper-Bot?

Übersetzt bedeutet der Name „Sammler-Bot“. Diese Bots sammeln alle öffentlich verfügbaren Dateien und Inhalte einer Website – z. B. Bilder, Produktinformationen, Preise und Bestände.

Diese Inhalte können dann auf verschiedene Weise genutzt werden. Zum Beispiel können Wettbewerbsanalysen durchgeführt werden, einschließlich Produktpreise, Rabatte, Bestand sowie Produkt-SKU-Nummern, -Kategorien und -Beschreibungen. Oft werden auch legitime Websites für Phishing oder billige Markenimitationen kopiert und Kunden auf diese Websites gelockt.

Auch weniger schädliche Web-Scraper können die Website-Performance verringern und die Rechen- und Serverkosten in die Höhe treiben, indem die Website mit GET-Anfragen überflutet wird. Unabhängig von ihrem Zweck können Scraper-Bots den Umsatz beeinträchtigen, IT-Kosten steigern und die Kundenerfahrung verschlechtern – zu Ihrem Wettbewerbsnachteil.

Wir haben dieses Phänomen – und mögliche Schutzmaßnahmen für E-Commerce-Unternehmen  – in einem neuen SOTI-Bericht (State of the Internet) untersucht. Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft.

Headless Browser: Eine schwer zu erkennende Gefahr

Was Scraper-Bots von anderen unterscheidet und so gefährlich macht, ist dass der wirtschaftliche Schaden oft nicht sofort ersichtlich ist. Die Erkennung dieser schädlichen Bots ist schwierig, weil sie teilweise Headless Browser (d. h. Browser ohne grafische Nutzeroberfläche, die häufig zum Testen – und Scraping – von Websites verwendet werden) nutzen. Dadurch sind sie äußerst schwer zu fassen.

Wichtige Anwendungsfälle mit Auswirkungen auf Unternehmen

Bei unseren Forschungen stießen wir auf Web-Scraper-Bots, die für zahlreiche unerwünschte Aktivitäten verwendet werden, darunter: 

  • Erstellung gefälschter Websites

  • Bestandsmanipulation

  • Erfassung von Informationen

Erstellung gefälschter Websites

Unternehmen im Reise- und Gastgewerbe sind ein Hauptziel für Scraper-Bots. Diese erfassen hier Inhalte und richten gefälschte Reservierungsseiten ein, um Kreditkartennummern und andere personenbezogene Daten zu stehlen.

Bestandsmanipulation

Ein weiterer Anwendungsfall ist die Bestandsmanipulation, wobei Spekulanten gezielt Websites anpingen, um neu verfügbare Produkte zu finden. Diese werden dann in den Warenkorb gelegt, wodurch sie legitimen Kunden nicht mehr zur Verfügung stehen. Dies geschieht oft während der Weihnachtszeit, wenn Online-Einkäufe auf dem Höchststand sind und jeder Euro zählt.

Das kann sich auch auf die Suche auswirken, da andere Einzelhändler in den Ergebnissen erscheinen, wenn der Artikel auf der manipulierten Website „nicht vorrätig“ ist. So wird nicht nur der Verkäufer um seine Einnahmen gebracht und in den Suchergebnissen benachteiligt, sondern auch ehrliche Kundschaft abgeschreckt.

Erfassung von Informationen

Mit Web-Scraper-Bots werden Informationen über Wettbewerber gesammelt, z. B. Preise und Sonderangebote, wodurch Händler ihre Konkurrenten unterbieten können. Mittlerweile gibt es eine Vielzahl von Web-Scraping-Tools und -Services von Drittanbietern, um diese Informationssammlung zu erleichtern.

Es gibt sogar spezielle Konferenzen – wie ScrapeCon – wo Teilnehmer bewährte Verfahren und Techniken austauschen, um Technologien zur Abwehr von Bots zu umgehen. Obwohl das Scraping öffentlicher Inhalte im Internet an sich nicht illegal ist, verwenden viele Tools von Drittanbietern, um später schädliche Handlungen zu begehen.

Höheres Scraping-Risiko durch KI

Wie bei anderen Arten von Bedrohungen werden auch Scraper-Bots mithilfe von künstlicher Intelligenz (KI) leistungsstärker. KI-Bots sammeln nicht nur Daten, sondern extrahieren und verarbeiten diese auch.

So kann der Bot wichtige Informationen effizient erkennen und Preise, Rabatte, Bestände sowie Produkt-SKU-Nummern, -Kategorien und -Beschreibungen auswählen. Kampagnen zur Sammlung von Marktinformationen oder Spekulation können dadurch deutlich beschleunigt werden.

Der Vorteil spezieller Erkennung

Es gibt gute Nachrichten für E-Commerce-Unternehmen, die sich Sorgen wegen Web-Scrapingmachen. Bot-Management-Lösungen zur gezielten Erkennung und Abwehr von Scraper-Bots reduzieren risikoreichen Bot-Traffic deutlich und verbessern die Geschäftsergebnisse.

Vor Kurzem untersuchten Forscher von Akamai eine Woche lang den Traffic einer Reihe von E-Commerce-Unternehmen. Sie analysierten 6,9 Milliarden Anfragen, um diese zu identifizieren und zu charakterisieren (Abbildung 1). Dies sind die Ergebnisse:

  • 49,3 % der Anfragen stammten von menschlichen Nutzern

  • 42,1 % stammten von Bots (8,7 % waren gemischt oder nicht klassifiziert)

  • 65,3 % des Bot-Traffics stammten von Scrapern, die als schädliche Bots eingestuft wurden

  • 34,7 % des Bot-Traffics stammten von Scrapern, die als gute Bots klassifiziert wurden

They analyzed 6.9 billion requests to identify and characterize them (Figure 1). Fig. 1: Traffic activity classification breakdown

Abwehr schädlicher Bots

Die Differenzierung zwischen gutem und schlechtem Bot-Traffic ermöglichte eine gezielte Abwehr. Nach der Aktivierung führte die Abwehr mit Akamai Content Protector zu einer drastischen Reduzierung schädlicher Bot-Anfragen, wodurch Schadaktivitäten erheblich reduziert wurden (Abbildung 2).

Once activated, mitigation with Akamai Content Protector resulted in a dramatic reduction in high-risk bot requests, lowering malicious activity substantially (Figure 2). Fig. 2: Risk levels before and after mitigation with Akamai Content Protector

Verbesserung der Geschäftsergebnisse

Die Abwehr von Web-Scrapern führte zu einem geringeren Risiko schädlicher Aktivitäten und reduzierte auch den Traffic, der Website-Ressourcen beanspruchte. Mit weniger risikoreichem Datenverkehr verbessern sich die Geschäftsergebnisse, z. B. mit verbesserter Website-Performance, höheren Konversionsraten, genaueren Websitekennzahlen und geringeren IT-Kosten. Genaue Kennzahlen für den Nutzverkehr ermöglichen es Unternehmen zudem, bessere Investitionsentscheidungen zu treffen und das Umsatzwachstum zu steigern.

Gegen die Flut an Web-Scraper-Bots

Bot-Entwickler sind schlau und ihre Taktiken werden ständig weiterentwickelt. Um schädliche Web-Scraper-Bots zu erkennen und abzuwehren sind Tools und Fachkenntnisse erforderlich, die so hoch entwickelt sind wie die Bots selbst. Die Zusammenarbeit mit einem Partner, der über diese Fähigkeiten verfügt, kann von unschätzbarem Wert sein, um die Flut von schädlichen Web-Scraper-Bots einzudämmen.

Die Bot-Landschaft ist ständig im Wandel und stellt E-Commerce-Unternehmen immer wieder vor neue Herausforderungen. Ein Bewusstsein für die Bedrohung durch Web-Scraping ist ein entscheidender erster Schritt, um Ihr Unternehmen vor Betrug zu schützen und sicherzustellen, dass Ihr E-Commerce-Geschäft gesund, produktiv und frei von Schädlingen ist.

Weitere Informationen

Mehr zu diesem Thema: Laden Sie dem neuen „State of the Internet“-Sicherheitsbericht herunter: Web-Scraper im E-Commerce: Die Gefahr für Ihr Geschäft.



Mitch Mayne

Verfasser

Mitch Mayne

June 25, 2024

Mitch Mayne

Verfasser

Mitch Mayne

Mitch Mayne ist eine bekannte Stimme in der Welt der Cybersicherheit und als ein Vordenker in diesem Bereich Autor verschiedener Fachartikel und Threat-Intelligence-Berichte. Darüber hinaus moderierte er mehrere erfolgreiche Podcast-Reihen und erstellt als Incident Responder proaktive und reaktive Kommunikationspläne für Kunden, die sich gegen Datenverstöße wappnen oder darauf reagieren möchten. Bei Akamai leitet er die Forschungsteams für Threat Intelligence und Cybersicherheit, die mit umfassenden Analysen und Berichten Kunden, politischen Entscheidungsträgern und Branchenakteuren ermöglichen, sich besser vor Cyberkriminellen zu schützen.

Mitch nutzt seine Erfahrung im Journalismus, um umfangreiche technische Inhalte in umsetzbare, nützliche Informationen für normale Geschäftsanwender zu übersetzen. Er verfügt über einen Master-Abschluss in Kommunikation und Medien von der Stanford University.