Hallo zusammen
Ich habe meine Website bei Google indexiert und erhalte die Fehlermeldung „No: ‘noindex’ detected in ‘X-Robots-Tag‘“.
Wie kann ich diesen Header-Tag entfernen?
Hallo @Younes_Dev, können Sie die Einstellung „allow index in robots txt“ Ihrer Website überprüfen?
Diese Einstellung ist standardmäßig aktiviert. Wenn sie auf Ihrer Website aktiviert ist und Sie immer noch den Fehler erhalten, auf welcher Version von Discourse befindet sich Ihre Website? Es gab ein Problem im Zusammenhang damit bei einigen Discourse-Versionen vor 2.9, aber es wurde seitdem behoben: Search engines now blocked from indexing non-canonical pages.
Hallo zusammen,
Ich habe Probleme damit, dass Google eine bestimmte Seite auf meinem Discourse-Forum (https://nhasg.com.vn/g/Sitetor) indexiert. Die Google Search Console meldet einen „noindex“-Fehler, was darauf hindeutet, dass die Seite von der Indexierung blockiert wird.
Hier ist, was ich bisher versucht habe:
- robots.txt geändert: Meine ursprüngliche robots.txt-Datei enthielt
Disallow: /g, was alle URLs unter/gblockierte. Ich habe dies zuAllow: /g/SitetorundDisallow: /g/*geändert, um die Indexierung der spezifischen Seite zu ermöglichen und andere in diesem Verzeichnis zu blockieren.
Auch nach diesen Änderungen und der Übermittlung der URL in der Google Search Console wird die Seite immer noch nicht indexiert. Ich habe die robots.txt mit dem robots.txt-Tester von Google erneut überprüft, und sie scheint korrekt konfiguriert zu sein.
Ich bin ratlos! Könnte es einen anderen Grund geben, warum Google eine „noindex“-Anweisung sieht? Jede Hilfe wäre sehr willkommen.
Vielen Dank im Voraus!
Ich glaube, dass Disallow Allow überschreibt.
Warum sind nur einige Seiten (ein Beispiel) von Google Search Console mit dem Fehler No: 'noindex' detected in 'X-Robots-Tag' http header betroffen?
Wenn meine Such-/Indexeinstellungen den Google-Bot verbieten würden, sollten sie auf allen Seiten die Fehlermeldung ‘Kein Zugriff’ erhalten. Warum geben nur einige Seiten den oben genannten Fehler zurück?

