Plugin Discourse AI: descoberta de modelo ausente e padrões sensatos (algum plano ou plugins da comunidade?)

Olá a todos :waving_hand:,

Primeiramente, obrigado à equipe do Discourse por construir e manter o plugin oficial de IA. É evidente que muito esforço foi dedicado para torná-lo estável e flexível para diferentes cenários de implantação.

Dito isso, após integrar vários provedores de IA (incluindo gateways compatíveis com OpenAI e endpoints Gemini de terceiros), encontrei algumas lacunas de UX que parecem cada vez mais dolorosas à medida que as ferramentas de IA amadurecem. Gostaria de perguntar se há planos para abordá-las — ou se há interesse em um plugin comunitário que o faça.


1. Nenhuma descoberta de modelo / lista de modelos do provedor

No momento, ao adicionar um modelo, o administrador deve inserir manualmente:

  • O ID do modelo
  • Saber com antecedência quais modelos são suportados pelo provedor
  • Garantir que o ID esteja escrito exatamente correto

Na maioria das ferramentas e gateways de IA modernos (OpenAI Playground, OpenRouter, OneAPI, LM Studio, etc.), agora é padrão:

  • Buscar uma lista de modelos disponíveis do provedor (ex: /v1/models)
  • Permitir que o usuário selecione em um menu suspenso
  • Opcionalmente, mostrar capacidades básicas (tamanho do contexto, suporte a visão, etc.)

Eu entendo que o Discourse AI suporta muitos backends não padronizados ou proxy, e que nem todos os provedores implementam a listagem de modelos de forma consistente. Ainda assim, mesmo uma ação opcional de “Buscar modelos do provedor” (melhor esforço, compatível com OpenAI) melhoraria drasticamente a usabilidade para muitas configurações.


2. A janela de contexto não deve exigir entrada manual (ou deve ter um padrão)

Atualmente, o campo janela de contexto não tem um valor padrão e deve ser inserido manualmente.

Do ponto de vista do usuário, isso parece ser algo que o plugin deveria:

  • Ter como padrão o contexto máximo conhecido do modelo, ou
  • Recair sobre um padrão seguro e razoável se desconhecido, ou
  • Tratar um valor vazio como “usar o padrão do provedor/modelo”

Exigir que os administradores pesquisem e insiram manualmente os tamanhos de contexto é propenso a erros e desnecessário, especialmente quando o nome do modelo já implica essa informação na maioria dos casos.


3. Pergunta: planos, padrões ou plugins comunitários?

Então, minhas perguntas para a comunidade e os mantenedores são:

  • Existem planos para melhorar a descoberta de modelos e os padrões no plugin oficial de IA?
  • Existem padrões recomendados para lidar com isso de forma mais ergonômica hoje?
  • Alguém sabe de (ou está trabalhando em) um plugin ou extensão comunitária que aborde essas lacunas?

Se a resposta for “não, e é improvável que chegue ao núcleo”, eu consideraria seriamente experimentar um pequeno plugin complementar que se concentre puramente em:

  • Descoberta de modelos
  • Metadados de capacidade
  • Padrões sensatos

Antes de seguir esse caminho, eu queria verificar se isso é algo que interessa a outros, ou se há algum contexto que eu possa estar perdendo.

Obrigado por ler, e adoraria ouvir suas opiniões.

1 curtida

Suspeito que alguém desenvolveu este plugin. Por favor, recomende-o para mim imediatamente, obrigado.

Tamanho da janela de contexto do modelo

Tamanho máximo de token de contexto para o modelo. Se for 0, será preenchido automaticamente a partir dos metadados do modelo (se houver) ou poderá ser modificado manualmente.

Seu primeiro ponto aqui é o mesmo deste tópico?

1 curtida