Ho replicato le metriche di Discourse nel nostro strumento di BI, ThoughtSpot, e quando sono arrivato alla metrica “Tempo alla prima risposta”, ho notato un difetto nel modo in cui viene riportato quando visualizzato su base settimanale o mensile.
Attualmente, il report di Discourse calcola una media del tempo di risposta al giorno, ma quando si aggrega in una visualizzazione settimanale o mensile, si limita a calcolare la media di quelle medie giornaliere invece di calcolare una media ponderata. Ciò può portare a risultati fuorvianti, specialmente quando alcuni giorni hanno significativamente più argomenti di altri.
Esempio:
Ecco una ripartizione dei tempi di risposta giornalieri e del numero di argomenti:
| Data | Tempo medio di risposta (ore) | Numero di argomenti |
|---|---|---|
| 16 marzo | 1,9 | 1 |
| 15 marzo | 23,6 | 1 |
| 14 marzo | 0,4 | 3 |
| 13 marzo | 6,0 | 7 |
| 12 marzo | 0,3 | 1 |
| 11 marzo | 2,1 | 8 |
| 10 marzo | 6,6 | 1 |
Ora, se calcoliamo la media delle medie, otteniamo:
Tuttavia, questo non rappresenta accuratamente il vero tempo alla prima risposta perché tratta ogni giorno allo stesso modo, indipendentemente da quanti argomenti sono stati creati. Invece, l’approccio corretto è calcolare una media ponderata, tenendo conto del numero di argomenti:
Utilizzando questo metodo:
Perché è Importante
La differenza è significativa: 5,82 ore contro 2,85 ore. Il metodo attuale pondera eccessivamente i giorni anomali (come il 15 marzo con 23,6 ore ma solo 1 argomento) e sottovaluta i giorni di alta attività (come l’11 marzo con 8 argomenti e un tempo di risposta di 2,1 ore).
Per una rappresentazione più accurata dei tempi di risposta, Discourse dovrebbe passare a una media ponderata quando si aggrega nel tempo.
Mi piacerebbe sentire i pensieri degli altri: qualcuno ha notato questo problema?


