Crawler bloccato richiede l'accesso alle pagine riservate

Sul mio forum ci sono categorie che richiedono un certo livello di TL per essere lette.

Google cerca di eseguire il crawl di queste e ottiene un errore. Dovrebbero essere automaticamente escluse da robots.txt?

Da dove ha preso Google i link, questi argomenti compaiono in una sitemap?

2 Mi Piace

Hmm. Ottima domanda. Vedo che l’URL canonico per i thread non contiene il category_id e quindi non può essere facilmente filtrato. Supponendo che non sia presente nelle sitemap, se Google trova il link altrove, non c’è un blocco facile a meno che non si includano tutti gli URL individuali in robots, il che non è un approccio sensato.

1 Mi Piace

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.