Olá a todos
Indexei meu site no Google e recebi o erro “No: ‘noindex’ detected in ‘X-Robots-Tag’”.
Como remover essa tag de cabeçalho?
Olá @Younes_Dev, você pode verificar o valor da configuração allow index in robots txt do seu site?
Essa configuração está habilitada por padrão. Se ela estiver habilitada no seu site e você ainda estiver recebendo o erro, em qual versão do Discourse seu site está? Houve um problema relacionado a isso em algumas versões do Discourse anteriores à 2.9, mas ele foi corrigido desde então: Search engines now blocked from indexing non-canonical pages.
Olá a todos,
Estou com problemas para fazer o Google indexar uma página específica do meu fórum Discourse (https://nhasg.com.vn/g/Sitetor). O Google Search Console relata um erro de "noindex", indicando que a página está sendo bloqueada da indexação.
Aqui está o que tentei até agora:
- Modifiquei o robots.txt: Meu arquivo robots.txt inicial tinha
Disallow: /g, que bloqueava todas as URLs sob/g. Modifiquei paraAllow: /g/SitetoreDisallow: /g/*para permitir a indexação da página específica enquanto bloqueava outras naquele diretório.
No entanto, mesmo após essas alterações e o envio da URL no Google Search Console, a página ainda não está sendo indexada. Verifiquei novamente o robots.txt com o testador de robots.txt do Google, e ele parece estar configurado corretamente.
Estou sem ideias! Poderia haver outro motivo pelo qual o Google está vendo uma diretiva "noindex"? Qualquer ajuda seria muito apreciada.
Obrigado antecipadamente!
Eu acho que o disallow substitui o allow.
Por que apenas algumas das páginas (um exemplo) estão enfrentando o erro No: 'noindex' detected in 'X-Robots-Tag' http header pelo Google Search Console?
Se minhas configurações de pesquisa/indexação proibissem o Google bot, então eles deveriam receber o erro ‘Sem Acesso’ em todas as páginas. Por que apenas algumas páginas estão retornando o erro acima?

