Se me permite acrescentar… ![]()
Antes mesmo de enviar a versão em JS para o Google, eu estava mexendo nela.
Testei o envio da versão em JS para o Google por volta do início de abril, mais ou menos. Lembro que ele retornava um resultado na maioria das vezes (mesmo que parecesse quebrado). Usando a ferramenta mobile do Google.
Pensei que pudesse ser este commit - fiz as edições no código, reiniciei e o mesmo comportamento.
Talvez alguém se lembre de um PR ou commit nos últimos meses que possa ter alterado a detecção de navegador e/ou crawler?
Edição Desculpem por todas as atualizações, quanto mais informação, melhor, certo?
Enquanto tentava o prerender no mês passado, o Google acabou adicionando 2000 URLs à cobertura do fórum. (principalmente estes URLs)
Todos foram servidos em 0,005 segundos, o prerender tinha os URLs em cache e prontos para o googlebot acessar. Então ele pegou todos rapidamente.
O ponto é que, talvez o crawler tenha se “acostumado muito” com o sem JS e alocado recursos para obter essas 2k páginas.
Então agora ele está acessando o site dessa maneira até que descubra as coisas (e precise acessar com mais JS), é apenas uma teoria.