RBoy
(RBoy)
14 Dicembre 2025, 12:36pm
1
Un piccolo bug nella pagina di utilizzo dell’LLM. Quando si crea un nuovo modello LLM ed è possibile eseguire un test per esso, questo appare nel report di utilizzo sotto llm_validator, ma poiché non c’è ancora un nome per l’LLM, il nome del modello appare nell’elenco dei filtri (nessun nome LLM), in questo caso moonshotai
Tuttavia, dopo averlo selezionato, il filtro a discesa cambia in 0 invece di moonshotai e tutte le statistiche risultano pari a 0
1 Mi Piace
Grazie per la segnalazione @RBoy , verrà risolto da
main ← ux-preserve-features-models-dropdown-options-when-filtering
opened 01:55PM - 15 Dec 25 UTC
When selecting a model or feature filter on the LLM Usage page, the dropdown wou… ld lose its options and display incorrect values (like "0") because fetchData() was clearing the cached dropdown options on every request.
The filtered API response only contains models/features matching the filter, so rebuilding the dropdown options from filtered data caused other options to disappear.
Added a `clearCache` parameter to fetchData():
- Initial load and date range changes pass `clearCache: true` to refresh options
- Filter changes use the default `clearCache: false` to preserve all options
Ref - https://meta.discourse.org/t/391273
3 Mi Piace