Aún no se puede configurar el modelo LLM predeterminado de IA después de crear un LLM disponible

Para mi confusión, cuando hice clic en “cambiar configuración” de nuevo poco después, el error desapareció, y no sé si eso significa que fue un éxito.

Aquí están los registros del servidor para esa operación

Started PUT "/admin/site_settings/ai_default_llm_model" for 172.68.225.73 at 2026-03-20 02:20:19 +0000
Processing by Admin::SiteSettingsController#update as */*
  Parameters: {"ai_default_llm_model"=>"3", "id"=>"ai_default_llm_model"}
Completed 204 No Content in 2047ms (ActiveRecord: 0.0ms (0 queries, 0 cached) | GC: 0.5ms)