Google n'indexe pas le forum Discourse – Sitemap non approuvé

Salut à tous,

J’utilise un forum Discourse (forum.evteam.pl) et j’ai du mal à faire indexer mes pages par Google. Bien que quelques pages aient été indexées, la plupart restent non indexées malgré la soumission d’un sitemap.

Voici la situation actuelle :

  • Seulement 8 pages indexées sur plus de 180.
  • Le nombre de pages indexées a brièvement augmenté avant de chuter à nouveau.
  • La Google Search Console indique 172 pages comme non indexées.
  • Le sitemap n’est pas approuvé depuis longtemps.
  • Les performances de recherche sont très faibles, avec à peine quelques clics provenant de Google.

J’ai vérifié les points suivants :
:white_check_mark: Robots.txt – Aucune restriction évidente.
:white_check_mark: Sitemap.xml – Soumis, mais toujours pas approuvé.
:white_check_mark: Balises Noindex – Absentes sur les pages clés.
:white_check_mark: Google Search Console – Aucune pénalité manuelle ni problème de sécurité.

Quelqu’un a-t-il rencontré des problèmes similaires avec des forums Discourse ? Cela pourrait-il être dû aux politiques d’indexation de Google, ou y a-t-il quelque chose que je pourrais manquer ? Des conseils pour résoudre ce problème ?

Merci d’avance !

Pouvez-vous vérifier

  1. \\u003cyoursite\u003e/admin/reports/web_crawlers pour voir si Googlebot est dans la liste ?
  2. le paramètre du site allowed_crawler_user_agents pour vous assurer que vous ne bloquez pas Google par accident (partagez-le ici si possible)

Discourse SEO overview (sitemap / robots.txt ) pourrait être un sujet utile pour vous.

1 « J'aime »

Merci pour vos suggestions !

  1. J’ai vérifié /admin/reports/web_crawlers, et Googlebot est sur la liste, donc il explore le forum.
  2. La liste allowed_crawler_user_agents était vide, je l’ai donc complétée par :
Googlebot  
bingbot  
DuckDuckBot  

J’ai également soumis à nouveau le sitemap dans Google Search Console et je vais surveiller si l’indexation s’améliore dans les prochains jours.

Cela pourrait être une mauvaise idée — à moins que vous ne soyez totalement sûr que tous les autres robots peuvent être interdits. Google utilise beaucoup de robots d’exploration qui ne déclarent pas la chaîne googlebot.

2 « J'aime »

Merci de l’avoir signalé ! Je n’étais pas au courant que Google utilise d’autres robots d’exploration qui n’annoncent pas explicitement Googlebot.

Je vais vider la liste allowed_crawler_user_agents pour éviter de bloquer accidentellement quoi que ce soit.