Googleにサイトをインデックス登録しましたが、「X-Robots-Tag」に「noindex」が検出されたというエラーが出ます。このヘッダータグを削除するにはどうすればいいですか?

皆さん、こんにちは。
Googleにサイトをインデックス登録したところ、「X-Robots-Tag」に「noindex」が検出されませんでした」というエラーが発生しました。
このヘッダータグを削除するにはどうすればよいですか?

Younes_Devさん、サイトの allow index in robots txt 設定の値を確認していただけますか?

この設定はデフォルトで有効になっています。サイトで有効になっているにもかかわらず、まだエラーが発生している場合、サイトはどのバージョンの Discourse を使用していますか? 2.9 より前の一部の Discourse バージョンではこの問題が発生していましたが、それ以降は修正されています: https://meta.discourse.org/t/search-engines-now-blocked-from-indexing-non-canonical-pages/218985。

「いいね!」 3

皆さん、こんにちは。

Discourseフォーラム(https://nhasg.com.vn/g/Sitetor)の特定のページがGoogleにインデックスされない問題が発生しています。Google Search Consoleでは「noindex」エラーが報告されており、ページがインデックスからブロックされていることを示しています。

これまでに試したことは以下の通りです。

  • robots.txtの変更: 初期のrobots.txtファイルにはDisallow: /gが含まれており、/g以下のすべてのURLをブロックしていました。これをAllow: /g/SitetorDisallow: /g/*に変更し、そのディレクトリ内の他のページはブロックしつつ、特定のページのインデックスを許可するようにしました。

しかし、これらの変更を行い、Google Search ConsoleでURLを送信した後も、ページはまだインデックスされていません。Googleのrobots.txtテスターでrobots.txtを再確認しましたが、正しく設定されているようです。

お手上げ状態です!Googleが「noindex」ディレクティブを見ている別の理由があるのでしょうか?どのような助けでも大変感謝いたします。

よろしくお願いいたします。

disallow は allow をオーバーライドすると思います。

「いいね!」 2

Google Search Console で一部のページ()のみが No: 'noindex' detected in 'X-Robots-Tag' http header エラーになるのはなぜですか?

検索/インデックス設定が Google ボットを禁止している場合、すべてのページで「アクセス拒否」エラーが発生するはずです。なぜ一部のページだけ上記のエラーが返されるのでしょうか?