Google non indicizza il forum Discourse – Sitemap non approvato

Ciao a tutti,

Sto gestendo un forum Discourse (forum.evteam.pl) e ho difficoltà a far indicizzare le mie pagine da Google. Sebbene alcune pagine siano state indicizzate, la maggior parte rimane non indicizzata nonostante l’invio di una sitemap.

Ecco la situazione attuale:

  • Solo 8 pagine indicizzate su oltre 180.
  • Il numero di pagine indicizzate è aumentato brevemente ma poi è diminuito di nuovo.
  • Google Search Console mostra 172 pagine come non indicizzate.
  • La sitemap non è approvata da molto tempo.
  • Le prestazioni di ricerca sono molto basse, con pochissimi clic da Google.

Ho controllato quanto segue:
:white_check_mark: Robots.txt – Nessuna restrizione evidente.
:white_check_mark: Sitemap.xml – Inviata, ma ancora non approvata.
:white_check_mark: Tag Noindex – Non presenti sulle pagine chiave.
:white_check_mark: Google Search Console – Nessuna penalità manuale o problema di sicurezza.

Qualcuno ha riscontrato problemi simili con i forum Discourse? Potrebbe essere dovuto alle policy di indicizzazione di Google, o c’è qualcosa che potrei star trascurando? Qualche consiglio su come risolvere questo problema?

Grazie in anticipo!

Puoi controllare

  1. \\u003cyoursite\u003e/admin/reports/web_crawlers per vedere se Googlebot è nell’elenco?
  2. l’impostazione del sito allowed_crawler_user_agents per assicurarti di non bloccare accidentalmente Google (condividila qui se possibile)

Discourse SEO overview (sitemap / robots.txt ) potrebbe essere un argomento utile per te.

Grazie per i tuoi suggerimenti!

  1. Ho controllato /admin/reports/web_crawlers, e Googlebot è nella lista, quindi sta eseguendo la scansione del forum.
  2. La lista allowed_crawler_user_agents era vuota, quindi l’ho aggiornata aggiungendo:
Googlebot  
bingbot  
DuckDuckBot  

Ho anche inviato nuovamente la sitemap in Google Search Console e monitorerò se l’indicizzazione migliora nei prossimi giorni.

Questa potrebbe essere una cattiva idea — a meno che tu non sia assolutamente sicuro che tutti gli altri bot possano essere disabilitati. Google utilizza molti crawler che non dichiarano la stringa googlebot.

Grazie per avermelo segnalato! Non ero a conoscenza del fatto che Google utilizzi altri crawler che non dichiarano esplicitamente Googlebot.

Cancellerò la lista allowed_crawler_user_agents per evitare di bloccare accidentalmente qualsiasi cosa.