Problem mit der aktuellen "Time to First Response"-Kennzahl

Ich repliziere Discourse-Metriken in unser BI-Tool, ThoughtSpot, und als ich zur Metrik „Zeit bis zur ersten Antwort“ kam, bemerkte ich einen Fehler in der Berichterstattung, wenn sie auf wöchentlicher oder monatlicher Basis angezeigt wird.

Derzeit berechnet der Discourse-Bericht einen durchschnittlichen Antwortzeit pro Tag, aber wenn er zu einer wöchentlichen oder monatlichen Ansicht aggregiert wird, nimmt er einfach den Durchschnitt dieser täglichen Durchschnittswerte an, anstatt einen gewichteten Durchschnitt zu berechnen. Dies kann zu irreführenden Ergebnissen führen, insbesondere wenn einige Tage deutlich mehr Themen als andere haben.

Beispiel:

Hier ist eine Aufschlüsselung der täglichen Antwortzeiten und Themenanzahlen:

Datum Durchschnittliche Antwortzeit (Std.) Themenanzahl
16. März 1,9 1
15. März 23,6 1
14. März 0,4 3
13. März 6,0 7
12. März 0,3 1
11. März 2,1 8
10. März 6,6 1

Wenn wir nun den Durchschnitt der Durchschnitte berechnen, erhalten wir:

Dies stellt jedoch nicht die tatsächliche Zeit bis zur ersten Antwort korrekt dar, da jeder Tag gleich behandelt wird, unabhängig davon, wie viele Themen erstellt wurden. Stattdessen ist der richtige Ansatz, einen gewichteten Durchschnitt zu berechnen, der die Themenanzahl berücksichtigt:

Mit dieser Methode:

Warum das wichtig ist

Der Unterschied ist erheblich – 5,82 Stunden gegenüber 2,85 Stunden. Die aktuelle Methode übergewichtet Ausreißertage (wie den 15. März mit 23,6 Stunden, aber nur 1 Thema) und untergewichtet Tage mit hoher Aktivität (wie den 11. März mit 8 Themen und einer Antwortzeit von 2,1 Stunden).

Für eine genauere Darstellung der Antwortzeiten sollte Discourse beim Aggregieren über die Zeit zu einem gewichteten Durchschnitt wechseln.

Ich würde gerne die Gedanken anderer hören – hat jemand anderes dieses Problem bemerkt?

2 „Gefällt mir“