Verdächtiger Bot-Traffic mit Google Analytics untersuchen
Diese Anleitung bietet einen schrittweisen Prozess zur Verwendung von Google Analytics 4 (GA4), um verdächtige Bot-Aktivitäten zu identifizieren und zu untersuchen.
1. GA4s Standard-Bot-Filterung verstehen
GA4 schließt standardmäßig den Traffic von bekannten Bots und Spiders aus.[1] Diese Filterung basiert auf Googles Forschung und der International Spiders & Bots List der IAB.
Die Schritte in dieser Anleitung sollen Ihnen helfen, ausgefeiltere oder unbekannte Bots zu identifizieren, die möglicherweise nicht auf dieser Liste stehen.
2. Traffic auf ungewöhnliche Muster analysieren
Bots generieren oft Traffic, der erheblich von Ihren typischen Benutzermustern abweicht.
Schritte:
-
Echtzeitberichte prüfen:
- Gehen Sie zu Berichte > Echtzeitseiten. Achten Sie auf plötzliche, unerklärliche Spitzen bei „Aktive Nutzer in den letzten 30 Minuten“. Dies kann das erste Anzeichen für einen aktiven Bot-Anstieg sein.
\u003e
Wenn Sie glauben, dass Ihre Website unter einem Spam-Angriff steht, nutzen Sie unsere Anleitung unter Immediate actions you can take during a spam attack -
Geografischen Standort untersuchen:
-
Gehen Sie zu Berichte > Demografie > Nutzer > Nutzerattribute > Demografische Details.
-
Das standardmäßig angezeigte Diagramm sollte Demografische Details: Land sein. Achten Sie auf eine hohe Anzahl von Nutzern aus Ländern, die Sie nicht ansprechen, in denen Sie keine Geschäftspräsenz haben oder in denen Sie normalerweise nicht viel Traffic erhalten. Ein plötzlicher Anstieg aus einem einzelnen, unerwarteten Standort ist ein großes Warnsignal.
-
-
Traffic-Quellen auf Referral-Spam analysieren:
-
Gehen Sie zu Berichte > Akquisition > Traffic-Akquisition.
-
Der Bericht ist standardmäßig auf „Sitzungs-Standardkanal-Gruppe“ eingestellt. Klicken Sie auf den Dropdown-Pfeil neben der primären Dimension und wählen Sie Sitzungsquelle / Medium. Suchen Sie nach verdächtigen oder unsinnigen Referral-Quellen (z. B.
\"free-traffic-seo.com,\"“buttons-for-your-website.com”). Dies sind klassische Anzeichen von Referral-Spam[2].
-
3. Nutzerverhaltensmetriken genau prüfen
Verhaltensmetriken sind möglicherweise das stärkste Werkzeug von GA4, um menschliche Nutzer von Bots zu trennen.
Schritte:
-
Geringe Engagement-Zeit suchen:
- Gehen Sie zu Berichte > Engagement > Seiten und Bildschirme.
\u003e
In GA4 ist die Engagement-Rate der Prozentsatz der Sitzungen, die länger als 10 Sekunden dauerten, ein Conversion-Ereignis hatten oder mindestens 2 Seitenaufrufe aufwiesen. Dies ist eine nuanciertere Ansicht der Sitzung als die frühere Messung der „Absprungrate“.-
Die Metrik Durchschnittliche Engagement-Zeit zeigt an, wie lange Ihre Website für Nutzer im Vordergrund war. Bots verbringen typischerweise sehr wenig Zeit auf einer Seite. Sortieren Sie die Tabelle nach „Durchschnittliche Engagement-Zeit“ (aufsteigend), um Seiten mit ungewöhnlich geringem Engagement trotz erheblicher Aufrufe zu finden.
-
Achten Sie auf Seiten mit vielen „Aufrufen“, aber einer sehr niedrigen „Engagement-Rate“. Dies deutet darauf hin, dass Nutzer auf der Seite landen und sofort wieder verlassen, ein häufiges Bot-Verhalten.
\u003e
Wenn Sie die Spalte „Engagement-Rate“ nicht sehen, müssen Sie sie hinzufügen. Klicken Sie auf das Bleistiftsymbol (Bericht anpassen) in der oberen rechten Ecke, wählen Sie „Metriken“ und fügen Sie „Engagement-Rate“ zum Bericht hinzu. Denken Sie daran, Ihre Änderungen zu speichern. -
Landingpages prüfen:
-
Gehen Sie zu Berichte > Engagement > Landingpage.
-
Gehen Sie in der linken Navigation zu Berichte > Engagement > Landingpage. Achten Sie auf Seiten mit einer hohen Anzahl von Neuen Nutzern, aber einer extrem niedrigen Durchschnittlichen Engagement-Zeit. Dieses Muster deutet auf automatisierten Traffic hin, der bestimmte Einstiegspunkte auf Ihrer Website trifft und sofort wieder verlässt.
-
4. Was Google Analytics nicht verraten kann 
- IP-Adressen: Wie Google Search Console meldet Google Analytics keine Nutzer-IP-Adressen. Diese Informationen finden Sie nur in Ihren Serverprotokollen. Die Analyse von Serverprotokollen ist entscheidend für die Blockierung bösartiger IPs.
Fazit
Während Google Analytics hilfreich sein kann, um verdächtige Traffic-Muster zu identifizieren, müssen Sie, um unerwünschte Crawler auf einem Discourse-Forum zu verlangsamen oder zu blockieren, einige der Einstellungen anpassen, die Sie finden, wenn Sie unter Admin > Website-Einstellungen nach crawler suchen.
Für Bots, die Sie vollständig blockieren möchten, fügen Sie deren User-Agent zu Blockierte Crawler-User-Agents hinzu. Für weniger aggressive, aber dennoch ressourcenintensive Bots können Sie sie zu Crawler-User-Agents verlangsamen hinzufügen, um deren Crawling-Geschwindigkeit zu reduzieren, ohne sie vollständig zu blockieren. Sie können die Geschwindigkeit der Verlangsamung über die Website-Einstellung Crawler-Verlangsamungsrate steuern.
\u003e
Seien Sie sehr vorsichtig, wenn Sie diese Einstellungen ändern. Einige Website-Besitzer haben beispielsweise versehentlich den gesamten Traffic von legitimen Suchmaschinen blockiert, indem sie diese Einstellung falsch konfiguriert haben.
Denken Sie schließlich daran, dass diese Maßnahmen nicht narrensicher sind. Crawler entwickeln sich ständig weiter und sind möglicherweise nicht gutartig; sie können ihre User-Agent-Strings ändern oder Anfragen über mehrere IP-Adressen verteilen, um diese Limits zu umgehen. Daher können diese Einstellungen zwar eine starke erste Verteidigungslinie bieten, Sie sollten jedoch weiterhin Ihre Analysen und Serverprotokolle auf neue oder ungewöhnliche Muster überwachen.