Olá a todos
,
Primeiramente, obrigado à equipe do Discourse por construir e manter o plugin oficial de IA. É evidente que muito esforço foi dedicado para torná-lo estável e flexível para diferentes cenários de implantação.
Dito isso, após integrar vários provedores de IA (incluindo gateways compatíveis com OpenAI e endpoints Gemini de terceiros), encontrei algumas lacunas de UX que parecem cada vez mais dolorosas à medida que as ferramentas de IA amadurecem. Gostaria de perguntar se há planos para abordá-las — ou se há interesse em um plugin comunitário que o faça.
1. Nenhuma descoberta de modelo / lista de modelos do provedor
No momento, ao adicionar um modelo, o administrador deve inserir manualmente:
- O ID do modelo
- Saber com antecedência quais modelos são suportados pelo provedor
- Garantir que o ID esteja escrito exatamente correto
Na maioria das ferramentas e gateways de IA modernos (OpenAI Playground, OpenRouter, OneAPI, LM Studio, etc.), agora é padrão:
- Buscar uma lista de modelos disponíveis do provedor (ex:
/v1/models) - Permitir que o usuário selecione em um menu suspenso
- Opcionalmente, mostrar capacidades básicas (tamanho do contexto, suporte a visão, etc.)
Eu entendo que o Discourse AI suporta muitos backends não padronizados ou proxy, e que nem todos os provedores implementam a listagem de modelos de forma consistente. Ainda assim, mesmo uma ação opcional de “Buscar modelos do provedor” (melhor esforço, compatível com OpenAI) melhoraria drasticamente a usabilidade para muitas configurações.
2. A janela de contexto não deve exigir entrada manual (ou deve ter um padrão)
Atualmente, o campo janela de contexto não tem um valor padrão e deve ser inserido manualmente.
Do ponto de vista do usuário, isso parece ser algo que o plugin deveria:
- Ter como padrão o contexto máximo conhecido do modelo, ou
- Recair sobre um padrão seguro e razoável se desconhecido, ou
- Tratar um valor vazio como “usar o padrão do provedor/modelo”
Exigir que os administradores pesquisem e insiram manualmente os tamanhos de contexto é propenso a erros e desnecessário, especialmente quando o nome do modelo já implica essa informação na maioria dos casos.
3. Pergunta: planos, padrões ou plugins comunitários?
Então, minhas perguntas para a comunidade e os mantenedores são:
- Existem planos para melhorar a descoberta de modelos e os padrões no plugin oficial de IA?
- Existem padrões recomendados para lidar com isso de forma mais ergonômica hoje?
- Alguém sabe de (ou está trabalhando em) um plugin ou extensão comunitária que aborde essas lacunas?
Se a resposta for “não, e é improvável que chegue ao núcleo”, eu consideraria seriamente experimentar um pequeno plugin complementar que se concentre puramente em:
- Descoberta de modelos
- Metadados de capacidade
- Padrões sensatos
Antes de seguir esse caminho, eu queria verificar se isso é algo que interessa a outros, ou se há algum contexto que eu possa estar perdendo.
Obrigado por ler, e adoraria ouvir suas opiniões.