Wir haben ein Forum, das freundlicherweise auf dem Discourse-Hosting für Open-Source-Projekte bereitgestellt wird. Es war fantastisch für unsere Community. Wir sind seit einigen Jahren mit 20-40.000 Aufrufen pro Monat zurechtgekommen (abgesehen von der Zeit, in der wir BingBot drosseln mussten), dann ist diese Woche plötzlich verrückt geworden mit über 8.000 Besuchen pro Tag.
Wenn man sich den neuen Bericht „Konsolidierte Seitenaufrufe mit Browsererkennung“ ansieht, scheint es, dass wir mit „anderem Datenverkehr“ überflutet werden.
Ich glaube, bei der gehosteten Option habe ich keinen Zugriff auf das Data Explorer Plugin oder auf alle IPs. Wir können kein Geoblocking einrichten, da wir eine sehr internationale Community sind.
Es ist gut zu hören, dass:
Unsere Seitenaufrufe auf dem Haupt-Dashboard verwenden immer noch die Legacy-Ansicht, sodass wir weit über dem Kontingent liegen:
Es ist etwas verwirrend/beunruhigend, diesen Anstieg zu sehen. Aber so wie ich das lese, bräuchten wir ein Plugin, um die zugrunde liegenden Protokolle dessen, welche IPs im anderen Traffic enthalten sind, tatsächlich einzusehen?
Hallo Julian! Entschuldigen Sie die verspätete Antwort hier. Als gehosteter Kunde können Sie sich jederzeit an team@discourse.org wenden, um persönliche Unterstützung von unserem Team zu erhalten. Wir können uns auch direkt Ihre Website-Statistiken und -Einstellungen ansehen, um Sie zu beraten.
Dieser Anstieg der Seitenaufrufe sieht beeindruckend aus, und Sie sind tatsächlich über Ihrem Limit. Aber keine Sorge, wir werden Ihnen keine zusätzlichen Kosten berechnen, ohne vorher mit Ihnen zu sprechen und Ihnen zu helfen, wieder unter Ihre Limits zu kommen.
Es gibt keinen Bericht, um detailliertere Informationen über die Seitenaufrufe zu sammeln. Nate hat auf ein Thema verwiesen, das erklärt, was „Anderer Traffic“ typischerweise ist:
Und um diese Frage zu beantworten:
Wir stellen in keinem Bericht IP-Adressen zur Verfügung. Als gehosteter Kunde müssten wir Ihre Webserver-Logs abrufen. Und selbst dann würde ich fragen, ob Sie diese wirklich benötigen?
Wenn Sie sich Sorgen über Seitenaufruflimits machen, würde ich vorschlagen, sich wie von Tobias erwähnt an unsere Support-Gruppe zu wenden.
Wenn Sie versuchen, einige dieser Anfragen zu mindern, würde ich mir Folgendes ansehen: Controlling Web Crawlers For a Site. Wie dort erwähnt, werden schlecht agierende Bots oder Crawler, die Google- oder Bing-Bots nachahmen, dadurch nicht verlangsamt.
Und schließlich, wenn Sie Google Analytics verwenden, haben wir vor etwas mehr als einer Woche eine neue Anleitung veröffentlicht unter How to investigate bot traffic using Google Analytics. Wenn Sie diese verwenden, wird jedes Feedback, das Sie haben, sehr geschätzt.
Es scheint sich zu beruhigen, wenn auch deutlich höher als zuvor. Hoffentlich setzt sich der Trend fort.
Wir haben versucht, den Crawler zu verlangsamen, als wir von Bing bombardiert wurden, aber es gibt keine identifizierbaren User Agents für den neuen Traffic. Da wir eine sehr internationale Community sind, können wir auch keine Geoblocks einrichten.
Ich wusste nicht, dass es möglich ist, Google Analytics einzubinden. Wenn dies zu einem echten Problem wird, müssen wir dies vielleicht in Betracht ziehen. Allerdings müssten wir zuerst über die Privatsphäre der Community nachdenken.
Vorerst werde ich sehen, ob es sich weiter in Richtung des Durchschnitts zurückentwickelt.