Crawler bloqueado requer login em páginas restritas

No meu fórum existem categorias que exigem um certo nível de TL para leitura.

O Google tenta rastrear isso e recebe um erro. Isso deve ser automaticamente excluído pelo robots.txt?

Onde o Google obteve os links, esses tópicos estão aparecendo em um mapa do site?

Hmm. Ótima pergunta. Vejo que o URL canônico para threads não contém o category_id e, portanto, não pode ser facilmente filtrado. Assumindo que não está nos sitemaps, se o Google encontrar o link em outro lugar, não há um bloqueio fácil, a menos que você inclua cada URL individual em robots, o que não é uma abordagem sensata.