Este guia abrange a página de configurações de LLM, que faz parte do plugin Discourse AI.
Nível de usuário necessário: Administrador
A página de configurações dedicada foi projetada para concentrar tudo relacionado a Large Language Models (LLMs) usados para os recursos do Discourse AI em um só lugar.
Dependendo do recurso do Discourse AI ativado, um LLM pode ser necessário. Verifique cada recurso do Discourse AI para saber se um LLM é um pré-requisito.
Adicionar novos modelos, com informações pré-preenchidas
Adicionar modelos personalizados não listados
Configurar configurações de LLM
Permitir o uso de LLM específico para o Bot de IA
Ver o nome de usuário do Bot de IA
Habilitar suporte a visão (dependente do modelo)
Configurar tipos de anexo permitidos
Configurar cotas de uso por grupo
Rastrear custos de tokens de entrada/saída
Testar
Salvar configurações
Adicionando conexões de LLM
Acesse Admin → Plugins → AI
Acesse a aba LLMs
Adicione uma nova conexão, escolha seu modelo
Adicione a chave de API (dependendo do modelo, você pode ter mais campos para inserir manualmente) e salve
(Opcional) Teste sua conexão para garantir que está funcionando
LLMs Suportados
Você sempre pode adicionar uma opção personalizada se não vir seu modelo listado. Modelos suportados são adicionados continuamente. Modelos pré-configurados são modelos — você sempre pode obter o mesmo resultado usando a “Configuração Manual”.
Anthropic
Claude Opus 4.6
Claude Sonnet 4.6
Claude Haiku 4.5
Google
Gemini 3 Pro
Gemini 3 Flash
OpenAI
GPT-5.4
GPT-5 Mini
GPT-5 Nano
Open Router
DeepSeek V3.2
Moonshot Kimi K2.5
xAI Grok 4 Fast
MiniMax M2.5
Z-AI GLM-5
… e muitos outros
Além disso, clientes hospedados podem usar o LLM Pequeno Hospedado CDCK pré-configurado na página de configurações. Este é um LLM de pesos abertos hospedado pelo Discourse, pronto para ser usado para alimentar os recursos de IA.
Campos de Configuração
Você verá apenas os campos relevantes para o seu provedor de LLM selecionado. Por favor, verifique novamente quaisquer dos campos pré-preenchidos com o provedor apropriado, como Model name
Campos Principais:
Display name — o nome amigável mostrado nos menus suspensos
Model name — o identificador do modelo enviado para a API (ex: claude-sonnet-4-6, gpt-5.2)
Provider — o serviço que hospeda o modelo (ex: Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router, etc.)
URL — a URL do endpoint da API (não mostrado para AWS Bedrock)
API Key — configurado através do sistema AI Secrets
Tokenizer
Max prompt tokens — controla o corte do prompt para evitar solicitações de tamanho excessivo
Max output tokens
Input cost / Output cost — custo por milhão de tokens, usado para rastreamento de uso
Cached input cost / Cache write cost — para provedores que suportam cache de prompt
Vision enabled — habilita a compreensão de imagens (dependente do modelo)
Allowed attachment types — tipos de arquivo que o modelo pode processar
Campos Específicos do Provedor (mostrados dinamicamente com base no provedor selecionado):
AWS Bedrock: Access Key ID, Role ARN, Region, opções de raciocínio/pensamento, Prompt caching
Anthropic: opções de raciocínio, Prompt caching
OpenAI: Organization ID, Reasoning effort, Service tier
Google: Enable thinking, Thinking level
Open Router: Provider order, Provider quantizations
Cotas (disponíveis após o salvamento inicial):
Cotas de uso por grupo podem ser configuradas com tokens máximos, usos máximos e duração
FAQ Técnico
O que é tokenizer?
O tokenizer traduz strings em tokens, que é o que um modelo usa para entender a entrada.
Qual número devo usar paraMax prompt tokens?
Uma boa regra geral é 50% da janela de contexto do modelo, que é a soma de quantos tokens você envia e quantos tokens eles geram. Se o prompt ficar muito grande, a solicitação falhará. Esse número é usado para cortar o prompt e evitar que isso aconteça
Ressalvas
Às vezes, você pode não ver o modelo que queria usar listado. Embora você possa adicioná-los manualmente, daremos suporte aos modelos populares à medida que forem lançados.
Há muito o que desvendar aqui, qual LLM você está tentando escolher para quê?
Os LLMs CDCK estão disponíveis apenas para recursos muito específicos. Para ver quais você precisa, vá para /admin/whats-new em sua instância e clique em “mostrar apenas recursos experimentais”. Você precisará habilitá-los para desbloquear o LLM CDCK em recursos específicos.
Qualquer LLM que você definir fora dos LLMs CDCK está disponível para todos os recursos.
Existe também um tópico que oferece um resumo geral do melhor equilíbrio custo/qualidade? Ou mesmo qual LLM pode ser usado gratuitamente para uma pequena comunidade e funcionalidade básica? Posso me aprofundar nos detalhes e experimentar. Mas estou um pouco sem tempo.
Por exemplo, só me importo com detecção de spam e um filtro de palavrões. Eu tinha isso de graça, mas esses plugins estão desatualizados ou em breve estarão. Seria bom se eu pudesse manter essa funcionalidade sem ter que pagar por um LLM.
Feito! Foi realmente bem fácil. Mas talvez para alguém não técnico ainda possa ser um pouco difícil de configurar. Por exemplo, o nome do modelo foi definido automaticamente nas configurações, mas não era o correto. Felizmente, reconheci o nome do modelo em um exemplo de curl para Claude na página da API e então funcionou
Os custos estimados são talvez 30 centavos de euro por mês para controle de spam (eu não tenho um fórum enorme). Então, isso é gerenciável! Defini um limite de 5 euros no console da API, apenas por precaução.
Eu uso Claude 3.5, o ID do modelo por padrão é claude-3-5-haiku, mas precisei alterá-lo para claude-3-5-haiku-20241022, caso contrário, recebi um erro.
Bom saber, sim, às vezes pode haver uma desconexão. As informações pré-preenchidas devem servir como orientação, o que tende a funcionar na maioria das vezes, mas falha em certos casos como o seu (dadas todas as diferentes configurações de modelos e provedores)
Existe uma maneira de usar o IBM WatsonX através da configuração de gerenciamento atual, ou isso exigiria trabalho de desenvolvimento adicional pela equipe do Discourse?