Bonjour, sur notre forum, nous avons beaucoup trop de robots d’indexation, en moyenne entre 81 000 et 90 000 ! Cela va-t-il poser des problèmes ? Si oui, comment puis-je empêcher les mauvais robots d’indexation de crawler ?
J’ai listé les agents utilisateur des robots d’indexation interdits comme suit :
mauibot
semrushbot
ahrefsbot
blexbot
SEO spider
J’ai également ralenti les agents utilisateur des robots d’indexation suivants :
Vous pouvez consulter des chiffres détaillés par moteur d’indexation en visitant
your.site.com/admin/reports/web_crawlers
Si vous remarquez un moteur d’indexation inhabituel qui se comporte de manière anormale, vous pouvez ajouter une chaîne unique issue de son user agent au paramètre blacklisted_crawler_user_agents, ce qui entraînera son blocage.
Quels sont les bots qu’il ne faut pas bloquer ? Et y a-t-il un moyen de trouver le nom des bots depuis les tableaux de bord consolidés des vues de page ?
Vous ne devriez bloquer que les bots qui se comportent mal et laisser le reste débloqué.
Comme je l’ai mentionné dans mon message précédent. Si vous allez sur
your.site.com/admin/reports/web_crawlers
Vous obtiendrez une liste complète de tous les robots d’exploration sur votre site et le nombre de vues de page par robot. Pouvez-vous faire une capture d’écran de cette page et la poster ici ?