Google n'indexe pas le forum Discourse – Sitemap non approuvé

Salut à tous,

J’utilise un forum Discourse (forum.evteam.pl) et j’ai du mal à faire indexer mes pages par Google. Bien que quelques pages aient été indexées, la plupart restent non indexées malgré la soumission d’un sitemap.

Voici la situation actuelle :

  • Seulement 8 pages indexées sur plus de 180.
  • Le nombre de pages indexées a brièvement augmenté avant de chuter à nouveau.
  • La Google Search Console indique 172 pages comme non indexées.
  • Le sitemap n’est pas approuvé depuis longtemps.
  • Les performances de recherche sont très faibles, avec à peine quelques clics provenant de Google.

J’ai vérifié les points suivants :
:white_check_mark: Robots.txt – Aucune restriction évidente.
:white_check_mark: Sitemap.xml – Soumis, mais toujours pas approuvé.
:white_check_mark: Balises Noindex – Absentes sur les pages clés.
:white_check_mark: Google Search Console – Aucune pénalité manuelle ni problème de sécurité.

Quelqu’un a-t-il rencontré des problèmes similaires avec des forums Discourse ? Cela pourrait-il être dû aux politiques d’indexation de Google, ou y a-t-il quelque chose que je pourrais manquer ? Des conseils pour résoudre ce problème ?

Merci d’avance !

Pouvez-vous vérifier

  1. \\u003cyoursite\u003e/admin/reports/web_crawlers pour voir si Googlebot est dans la liste ?
  2. le paramètre du site allowed_crawler_user_agents pour vous assurer que vous ne bloquez pas Google par accident (partagez-le ici si possible)

Discourse SEO overview (sitemap / robots.txt ) pourrait être un sujet utile pour vous.

Merci pour vos suggestions !

  1. J’ai vérifié /admin/reports/web_crawlers, et Googlebot est sur la liste, donc il explore le forum.
  2. La liste allowed_crawler_user_agents était vide, je l’ai donc complétée par :
Googlebot  
bingbot  
DuckDuckBot  

J’ai également soumis à nouveau le sitemap dans Google Search Console et je vais surveiller si l’indexation s’améliore dans les prochains jours.

Cela pourrait être une mauvaise idée — à moins que vous ne soyez totalement sûr que tous les autres robots peuvent être interdits. Google utilise beaucoup de robots d’exploration qui ne déclarent pas la chaîne googlebot.

Merci de l’avoir signalé ! Je n’étais pas au courant que Google utilise d’autres robots d’exploration qui n’annoncent pas explicitement Googlebot.

Je vais vider la liste allowed_crawler_user_agents pour éviter de bloquer accidentellement quoi que ce soit.