Estive replicando as métricas do Discourse em nossa ferramenta de BI, ThoughtSpot, e quando cheguei à métrica “Tempo para a Primeira Resposta”, notei uma falha em como ela está sendo reportada quando vista em bases semanais ou mensais.
Atualmente, o relatório do Discourse calcula uma média de tempo de resposta por dia, mas ao agregar para uma visualização semanal ou mensal, ele simplesmente tira a média dessas médias diárias em vez de calcular uma média ponderada. Isso pode levar a resultados enganosos, especialmente quando alguns dias têm significativamente mais tópicos do que outros.
Exemplo:
Aqui está uma análise dos tempos de resposta diários e contagens de tópicos:
| Data | Tempo Médio de Resposta (h) | Contagem de Tópicos |
|---|---|---|
| 16 de Março | 1.9 | 1 |
| 15 de Março | 23.6 | 1 |
| 14 de Março | 0.4 | 3 |
| 13 de Março | 6.0 | 7 |
| 12 de Março | 0.3 | 1 |
| 11 de Março | 2.1 | 8 |
| 10 de Março | 6.6 | 1 |
Agora, se calcularmos a média das médias, obtemos:
No entanto, isso não representa com precisão o verdadeiro tempo de primeira resposta porque trata cada dia igualmente, independentemente de quantos tópicos foram criados. Em vez disso, a abordagem correta é calcular uma média ponderada, levando em conta a contagem de tópicos:
Usando este método:
Por que Isso Importa
A diferença é significativa — 5,82 horas contra 2,85 horas. O método atual sobrecarrega dias atípicos (como 15 de março com 23,6 horas, mas apenas 1 tópico) e subestima dias de alta atividade (como 11 de março com 8 tópicos e um tempo de resposta de 2,1 horas).
Para uma representação mais precisa dos tempos de resposta, o Discourse deveria mudar para uma média ponderada ao agregar ao longo do tempo.
Adoraria ouvir a opinião de outros — alguém mais notou esse problema?


