RBoy
(RBoy)
14 Diciembre, 2025 12:36
1
Un error menor en la página de uso de LLM. Cuando creas un nuevo modelo LLM y ejecutas una prueba para él, aparece en el informe de uso bajo llm_validator, pero como aún no hay un nombre para el LLM, el nombre del modelo aparece en la lista de filtros (sin nombre de LLM), en este caso moonshotai
Sin embargo, después de seleccionarlo, el filtro desplegable cambia a 0 en lugar de moonshotai y todas las estadísticas se muestran como 0
1 me gusta
Gracias por el informe @RBoy , eso se solucionará con
main ← ux-preserve-features-models-dropdown-options-when-filtering
opened 01:55PM - 15 Dec 25 UTC
When selecting a model or feature filter on the LLM Usage page, the dropdown wou… ld lose its options and display incorrect values (like "0") because fetchData() was clearing the cached dropdown options on every request.
The filtered API response only contains models/features matching the filter, so rebuilding the dropdown options from filtered data caused other options to disappear.
Added a `clearCache` parameter to fetchData():
- Initial load and date range changes pass `clearCache: true` to refresh options
- Filter changes use the default `clearCache: false` to preserve all options
Ref - https://meta.discourse.org/t/391273
3 Me gusta