皆さん、こんにちは。
Googleにサイトをインデックス登録したところ、「X-Robots-Tag」に「noindex」が検出されませんでした」というエラーが発生しました。
このヘッダータグを削除するにはどうすればよいですか?
Younes_Devさん、サイトの allow index in robots txt 設定の値を確認していただけますか?
この設定はデフォルトで有効になっています。サイトで有効になっているにもかかわらず、まだエラーが発生している場合、サイトはどのバージョンの Discourse を使用していますか? 2.9 より前の一部の Discourse バージョンではこの問題が発生していましたが、それ以降は修正されています: https://meta.discourse.org/t/search-engines-now-blocked-from-indexing-non-canonical-pages/218985。
皆さん、こんにちは。
Discourseフォーラム(https://nhasg.com.vn/g/Sitetor)の特定のページがGoogleにインデックスされない問題が発生しています。Google Search Consoleでは「noindex」エラーが報告されており、ページがインデックスからブロックされていることを示しています。
これまでに試したことは以下の通りです。
- robots.txtの変更: 初期のrobots.txtファイルには
Disallow: /gが含まれており、/g以下のすべてのURLをブロックしていました。これをAllow: /g/SitetorとDisallow: /g/*に変更し、そのディレクトリ内の他のページはブロックしつつ、特定のページのインデックスを許可するようにしました。
しかし、これらの変更を行い、Google Search ConsoleでURLを送信した後も、ページはまだインデックスされていません。Googleのrobots.txtテスターでrobots.txtを再確認しましたが、正しく設定されているようです。
お手上げ状態です!Googleが「noindex」ディレクティブを見ている別の理由があるのでしょうか?どのような助けでも大変感謝いたします。
よろしくお願いいたします。
disallow は allow をオーバーライドすると思います。
Google Search Console で一部のページ(例)のみが No: 'noindex' detected in 'X-Robots-Tag' http header エラーになるのはなぜですか?
検索/インデックス設定が Google ボットを禁止している場合、すべてのページで「アクセス拒否」エラーが発生するはずです。なぜ一部のページだけ上記のエラーが返されるのでしょうか?

