Investigar tráfego suspeito de bots usando o Google Analytics
Este guia fornece um processo passo a passo para usar o Google Analytics 4 (GA4) para ajudar a identificar e investigar atividades suspeitas de bots.
1. Entendendo a filtragem padrão de bots do GA4
O GA4 exclui automaticamente o tráfego de bots e spiders conhecidos por padrão.[1] Essa filtragem é baseada na pesquisa do Google e na Lista Internacional de Spiders e Bots da IAB.
As etapas deste guia destinam-se a ajudá-lo a identificar bots mais sofisticados ou desconhecidos que podem não estar nesta lista.
2. Analisar o tráfego em busca de padrões incomuns
Bots geralmente geram tráfego que se desvia significativamente dos seus padrões de usuário típicos.
Etapas:
-
Verificar Relatórios em Tempo Real:
- Vá para Relatórios > Páginas em tempo real. Procure por picos súbitos e inexplicáveis em “Usuários ativos nos últimos 30 minutos”. Este pode ser o primeiro sinal de um aumento ativo de bots.
\u003e
Se você acha que seu site está sob ataque de spam, use nosso guia em Immediate actions you can take during a spam attack -
Investigar a localização geográfica:
-
Vá para Relatórios > Demografia > Usuário > Atributos do usuário > Detalhes demográficos.
-
O gráfico padrão exibido deve ser Detalhes demográficos: País. Procure por um grande número de usuários de países que você não visa, onde você não tem presença comercial ou onde você normalmente não obteve muito tráfego. Um aumento súbito de uma única localização inesperada é um grande sinal de alerta.
-
-
Analisar fontes de tráfego em busca de spam de referência:
-
Vá para Relatórios > Aquisição > Aquisição de tráfego.
-
O relatório é definido como “Grupo de canais padrão da sessão”. Clique na seta suspensa ao lado da dimensão principal e selecione Fonte/mídia da sessão. Procure por fontes de referência suspeitas ou sem sentido (por exemplo,
\"free-traffic-seo.com,\"“buttons-for-your-website.com”). Estes são sinais clássicos de spam de referência[2].
-
3. Examinar métricas de comportamento do usuário
As métricas comportamentais podem ser a ferramenta mais forte do GA4 para separar usuários humanos de bots.
Etapas:
-
Procurar baixo tempo de engajamento:
- Vá para Relatórios > Engajamento > Páginas e telas.
\u003e
No GA4, Taxa de engajamento é a porcentagem de sessões que duraram mais de 10 segundos, tiveram um evento de conversão ou tiveram pelo menos 2 visualizações de página. Esta é uma visão mais sutil da sessão do que a medição anterior de ‘taxa de rejeição’.-
A métrica Tempo médio de engajamento mostra quanto tempo seu site esteve em primeiro plano para os usuários. Bots geralmente passam muito pouco tempo em uma página. Ordene a tabela por “Tempo médio de engajamento” (crescente) para encontrar páginas com engajamento incomumente baixo, apesar de visualizações significativas.
-
Procure por páginas com “Visualizações” altas, mas uma “Taxa de engajamento” muito baixa. Isso indica que os usuários estão acessando a página e saindo imediatamente, um comportamento comum de bot.
\u003e
Se você não vir a coluna “Taxa de engajamento”, precisará adicioná-la. Clique no ícone de lápis (Personalizar relatório) no canto superior direito, selecione “Métricas” e adicione “Taxa de engajamento” ao relatório. Lembre-se de salvar suas alterações. -
Verificar páginas de destino:
-
Vá para Relatórios > Engajamento > Página de destino.
-
Na navegação à esquerda, vá para Relatórios > Engajamento > Página de destino. Procure por páginas com um grande número de Novos usuários, mas um Tempo médio de engajamento extremamente baixo. Esse padrão sugere tráfego automatizado atingindo pontos de entrada específicos em seu site e saindo imediatamente.
-
4. O que o Google Analytics não pode dizer 
- Endereços IP: Assim como o Google Search Console, o Google Analytics não relata endereços IP de usuários. Essas informações só podem ser encontradas em seus logs do servidor. A análise de logs do servidor é fundamental para bloquear IPs maliciosos.
Conclusão
Embora o Google Analytics possa ser útil para identificar padrões de tráfego suspeitos, para desacelerar ou bloquear rastreadores indesejados em um fórum Discourse, você precisará ajustar algumas das configurações que encontrará ao pesquisar por crawler em Admin > Configurações do site.
Para bots que você escolher bloquear completamente, adicione seu user agent a Blocked crawler user agents (User agents de crawler bloqueados). Para bots menos agressivos, mas ainda assim intensivos em recursos, você pode adicioná-los a Slow down crawler user agents (Desacelerar user agents de crawler) para reduzir sua velocidade de rastreamento sem bloqueá-los completamente. Você pode gerenciar a taxa de desaceleração por meio da configuração do site Slow down crawler rate (Taxa de desaceleração de crawler).
\u003e
Tenha muito cuidado ao fazer ajustes nessas configurações. Por exemplo, alguns proprietários de sites acidentalmente bloquearam todo o tráfego de mecanismos de busca legítimos ao configurar incorretamente esta configuração.
Finalmente, lembre-se de que essas medidas não são infalíveis. Os rastreadores estão em constante evolução e podem não se comportar bem; eles podem alterar suas strings de user agent ou distribuir solicitações por vários endereços IP para contornar esses limites. Portanto, embora essas configurações possam fornecer uma forte primeira linha de defesa, você deve continuar a monitorar suas análises e logs do servidor em busca de padrões novos ou incomuns.