Problema con la métrica actual de "Tiempo hasta la Primera Respuesta"

He estado replicando las métricas de Discourse en nuestra herramienta de BI, ThoughtSpot, y cuando llegué a la métrica “Tiempo hasta la primera respuesta”, noté un defecto en cómo se informa cuando se ve de forma semanal o mensual.

Actualmente, el informe de Discourse calcula un tiempo de respuesta promedio por día, pero al agregar a una vista semanal o mensual, simplemente toma el promedio de esos promedios diarios en lugar de calcular un promedio ponderado. Esto puede llevar a resultados engañosos, especialmente cuando algunos días tienen significativamente más temas que otros.

Ejemplo:

Aquí hay un desglose de los tiempos de respuesta diarios y el recuento de temas:

Fecha Tiempo de respuesta promedio (h) Recuento de temas
16 de marzo 1.9 1
15 de marzo 23.6 1
14 de marzo 0.4 3
13 de marzo 6.0 7
12 de marzo 0.3 1
11 de marzo 2.1 8
10 de marzo 6.6 1

Ahora, si calculamos el promedio de los promedios, obtenemos:

Sin embargo, esto no representa con precisión el tiempo real de la primera respuesta porque trata cada día por igual, independientemente de cuántos temas se crearon. En cambio, el enfoque correcto es calcular un promedio ponderado, teniendo en cuenta el recuento de temas:

Usando este método:

Por qué esto importa

La diferencia es significativa: 5.82 horas frente a 2.85 horas. El método actual pondera en exceso los días atípicos (como el 15 de marzo con 23.6 horas pero solo 1 tema) y subestima los días de alta actividad (como el 11 de marzo con 8 temas y un tiempo de respuesta de 2.1 horas).

Para una representación más precisa de los tiempos de respuesta, Discourse debería cambiar a un promedio ponderado al agregar datos a lo largo del tiempo.

Me encantaría escuchar las opiniones de otros: ¿alguien más ha notado este problema?

2 Me gusta