Google não indexando fórum Discourse – Sitemap não aprovado

Olá a todos,

Estou executando um fórum Discourse (forum.evteam.pl) e estou com dificuldades para que minhas páginas sejam indexadas pelo Google. Embora algumas páginas tenham sido indexadas, a maioria permanece não indexada, apesar de eu ter enviado um sitemap.

Aqui está a situação atual:

  • Apenas 8 páginas indexadas de mais de 180.
  • O número de páginas indexadas aumentou brevemente, mas depois caiu novamente.
  • O Google Search Console mostra 172 páginas como não indexadas.
  • O sitemap não é aprovado há muito tempo.
  • O desempenho de pesquisa é muito baixo, com quase nenhum clique do Google.

Verifiquei o seguinte:
:white_check_mark: Robots.txt – Nenhuma restrição óbvia.
:white_check_mark: Sitemap.xml – Enviado, mas ainda não aprovado.
:white_check_mark: Tags Noindex – Não presentes em páginas importantes.
:white_check_mark: Google Search Console – Nenhuma penalidade manual ou problema de segurança.

Alguém já passou por problemas semelhantes com fóruns Discourse? Isso pode ser devido às políticas de indexação do Google, ou há algo que eu possa estar perdendo? Alguma dica sobre como resolver isso?

Agradeço antecipadamente!

Você pode verificar

  1. \\u003cyoursite\u003e/admin/reports/web_crawlers para ver se o Googlebot está na lista?
  2. a configuração do site allowed_crawler_user_agents para ter certeza de que você não está bloqueando o Google acidentalmente (compartilhe isso aqui, se possível)

Discourse SEO overview (sitemap / robots.txt ) pode ser um tópico útil para você.

1 curtida

Obrigado pelas suas sugestões!

  1. Verifiquei /admin/reports/web_crawlers, e Googlebot está na lista, então ele está rastreando o fórum.
  2. A lista allowed_crawler_user_agents estava vazia, então adicionei:
Googlebot  
bingbot  
DuckDuckBot  

Também reenviei o sitemap no Google Search Console e vou monitorar se a indexação melhora nos próximos dias.

Essa pode ser uma má ideia — a menos que você tenha certeza absoluta de que todos os outros bots podem ser desautorizados. O Google usa muitos rastreadores que não declaram a string googlebot.

2 curtidas

Obrigado por apontar isso! Eu não sabia que o Google usa outros rastreadores que não declaram explicitamente Googlebot.

Vou limpar a lista allowed_crawler_user_agents para evitar bloquear acidentalmente alguma coisa.