Estoy ejecutando un foro de Discourse (forum.evteam.pl) y tengo problemas para que mis páginas sean indexadas por Google. Aunque algunas páginas han sido indexadas, la mayoría permanece sin indexar a pesar de enviar un sitemap.
Esta es la situación actual:
Solo 8 páginas indexadas de más de 180.
El número de páginas indexadas aumentó brevemente pero luego volvió a disminuir.
Google Search Console muestra 172 páginas como no indexadas.
El sitemap no ha sido aprobado en mucho tiempo.
El rendimiento de búsqueda es muy bajo, con apenas clics de Google.
He comprobado lo siguiente: Robots.txt – No hay restricciones obvias. Sitemap.xml – Enviado, pero aún no aprobado. Etiquetas Noindex – No presentes en páginas clave. Google Search Console – No hay penalizaciones manuales ni problemas de seguridad.
¿Alguien ha experimentado problemas similares con foros de Discourse? ¿Podría deberse a las políticas de indexación de Google, o hay algo que podría estar pasando por alto? ¿Algún consejo sobre cómo resolver esto?
\\u003cyoursite\u003e/admin/reports/web_crawlers para ver si Googlebot está en la lista?
la configuración del sitio allowed_crawler_user_agents para asegurarte de que no estás bloqueando a Google por accidente (compártela aquí si es posible)
Eso podría ser una mala idea, a menos que estés totalmente seguro de que todos los demás bots pueden ser desautorizados. Google utiliza muchos rastreadores que no declaran la cadena googlebot.