RBoy
(RBoy)
Dezembro 14, 2025, 12:36pm
1
Um pequeno erro na página de uso do LLM. Quando você cria um novo modelo de LLM e executa um teste para ele, ele aparece no relatório de uso sob llm_validator, mas como ainda não há um nome para o LLM, o nome do modelo aparece na lista de filtros (sem nome de LLM), neste caso moonshotai
No entanto, depois de selecioná-lo, o filtro suspenso muda para 0 em vez de moonshotai e todas as estatísticas aparecem como 0
2 curtidas
Obrigado pelo relatório @RBoy , isso será corrigido por
main ← ux-preserve-features-models-dropdown-options-when-filtering
opened 01:55PM - 15 Dec 25 UTC
When selecting a model or feature filter on the LLM Usage page, the dropdown wou… ld lose its options and display incorrect values (like "0") because fetchData() was clearing the cached dropdown options on every request.
The filtered API response only contains models/features matching the filter, so rebuilding the dropdown options from filtered data caused other options to disappear.
Added a `clearCache` parameter to fetchData():
- Initial load and date range changes pass `clearCache: true` to refresh options
- Filter changes use the default `clearCache: false` to preserve all options
Ref - https://meta.discourse.org/t/391273
3 curtidas
zogstrip
Fechado
Dezembro 16, 2025, 7:00am
4
Este tópico foi fechado automaticamente após 8 horas. Novas respostas não são mais permitidas.