Google indexiert das Discourse-Forum nicht – Sitemap nicht genehmigt

Hallo zusammen,

ich betreibe ein Discourse-Forum (forum.evteam.pl) und habe Schwierigkeiten, meine Seiten von Google indexieren zu lassen. Obwohl einige Seiten indexiert wurden, bleiben die meisten unindexiert, obwohl ich eine Sitemap eingereicht habe.

Hier ist die aktuelle Situation:

  • Nur 8 Seiten indexiert von über 180.
  • Die Anzahl der indexierten Seiten stieg kurzzeitig an, fiel dann aber wieder ab.
  • Google Search Console zeigt 172 Seiten als nicht indexiert an.
  • Die Sitemap wurde lange Zeit nicht genehmigt.
  • Die Suchleistung ist sehr gering, mit kaum Klicks von Google.

Ich habe Folgendes überprüft:
:white_check_mark: Robots.txt – Keine offensichtlichen Einschränkungen.
:white_check_mark: Sitemap.xml – Eingereicht, aber immer noch nicht genehmigt.
:white_check_mark: Noindex-Tags – Nicht auf wichtigen Seiten vorhanden.
:white_check_mark: Google Search Console – Keine manuellen Strafen oder Sicherheitsprobleme.

Hatte jemand ähnliche Probleme mit Discourse-Foren? Könnte dies an Googles Indexierungsrichtlinien liegen oder gibt es etwas, das ich übersehe? Irgendwelche Tipps zur Lösung?

Vielen Dank im Voraus!

Können Sie bitte Folgendes überprüfen:

  1. \\u003cyoursite\u003e/admin/reports/web_crawlers, um zu sehen, ob Googlebot in der Liste ist?
  2. Die Website-Einstellung allowed_crawler_user_agents, um sicherzustellen, dass Sie Google nicht versehentlich blockieren (teilen Sie dies hier, wenn möglich).

Discourse SEO overview (sitemap / robots.txt ) könnte ein nützliches Thema für Sie sein.

1 „Gefällt mir“

Danke für Ihre Vorschläge!

  1. Ich habe /admin/reports/web_crawlers überprüft, und Googlebot ist auf der Liste, also durchsucht es das Forum.
  2. Die allowed_crawler_user_agents-Liste war leer, also habe ich folgende Einträge hinzugefügt:
Googlebot  
bingbot  
DuckDuckBot  

Ich habe auch die Sitemap erneut in der Google Search Console eingereicht und werde beobachten, ob sich die Indexierung in den nächsten Tagen verbessert.

Das könnte eine schlechte Idee sein – es sei denn, Sie sind sich absolut sicher, dass alle anderen Bots blockiert werden können. Google verwendet viele Crawler, die den Googlebot-String nicht deklarieren.

2 „Gefällt mir“

Vielen Dank, dass du das aufgezeigt hast! Ich war mir nicht bewusst, dass Google andere Crawler verwendet, die nicht ausdrücklich Googlebot deklarieren.

Ich werde die Liste der allowed_crawler_user_agents löschen, um zu vermeiden, unbeabsichtigt etwas zu blockieren.