Hallo, in unserem Forum haben wir zu viele Crawler, im Durchschnitt etwa 81.000 bis 90.000! Wird das Probleme verursachen? Wenn ja, wie kann ich schlechte Crawler vom Crawlen abhalten?
Ich habe folgende Crawler-User-Agents auf die schwarze Liste gesetzt:
Sie können detaillierte Zahlen pro Crawler einsehen, wenn Sie
your.site.com/admin/reports/web_crawlers
aufrufen.
Wenn Sie einen ungewöhnlichen Crawler entdecken, der sich fehlerhaft verhält, können Sie einen eindeutigen String aus dessen User-Agent zur Einstellung blacklisted_crawler_user_agents hinzufügen. Dadurch wird der Crawler blockiert.
Das hängt davon ab, wie groß Ihre Website ist und welcher User-Agent für diesen Crawler verwendet wird. Sie möchten beispielsweise Googlebot nicht blockieren.
Du solltest nur Bots blockieren, die sich Fehlverhalten zuschulden kommen lassen, und alles andere unblockiert lassen.
Wie ich in meinem vorherigen Beitrag bereits erwähnt habe: Wenn du zu
diese.deine.seite.de/admin/reports/web_crawlers
gehst, erhältst du eine vollständige Liste aller Crawler auf deiner Seite sowie die Anzahl der Seitenaufrufe pro Crawler. Könntest du einen Screenshot dieser Seite machen und hier posten?