Salut à tous
J’ai indexé mon site sur Google et j’obtiens l’erreur « No: ‘noindex’ detected in ‘X-Robots-Tag’ ».
Comment supprimer cette balise d’en-tête ?
Salut @Younes_Dev, peux-tu vérifier la valeur du paramètre autoriser l'indexation dans robots txt de ton site ?
Ce paramètre est activé par défaut. S’il est activé sur ton site et que tu reçois toujours l’erreur, sur quelle version de Discourse ton site est-il ? Il y avait un problème lié à cela sur certaines versions de Discourse avant la 2.9, mais il a été corrigé depuis : Search engines now blocked from indexing non-canonical pages.
Salut tout le monde,
J’ai du mal à faire indexer une page spécifique de mon forum Discourse par Google (https://nhasg.com.vn/g/Sitetor). La Google Search Console signale une erreur “noindex”, indiquant que la page est bloquée de l’indexation.
Voici ce que j’ai essayé jusqu’à présent :
- Modification de robots.txt : Mon fichier robots.txt initial contenait
Disallow: /g, ce qui bloquait toutes les URL sous/g. Je l’ai modifié enAllow: /g/SitetoretDisallow: /g/*pour autoriser l’indexation de la page spécifique tout en bloquant les autres dans ce répertoire.
Cependant, même après ces modifications et la soumission de l’URL dans Google Search Console, la page n’est toujours pas indexée. J’ai revérifié le robots.txt avec le testeur de robots.txt de Google, et il semble être correctement configuré.
Je suis perplexe ! Y a-t-il une autre raison pour laquelle Google voit une directive “noindex” ? Toute aide serait grandement appréciée.
Merci d’avance !
Je pense que disallow remplace allow.
Pourquoi certaines pages seulement (un exemple) rencontrent-elles l’erreur No: 'noindex' detected in 'X-Robots-Tag' http header par Google Search Console ?
Si mes paramètres de recherche/indexation interdisaient le bot Google, alors ils devraient recevoir une erreur « Pas d’accès » sur toutes les pages. Pourquoi certaines pages seulement renvoient-elles l’erreur ci-dessus ?

