Configurações do Discourse AI - Página de configurações do Large Language Model (LLM)

:bookmark: Este guia abrange a página de configurações de LLM, que faz parte do plugin Discourse AI.

:person_raising_hand: Nível de usuário necessário: Administrador

A página de configurações dedicada foi projetada para concentrar tudo relacionado a Large Language Models (LLMs) usados para os recursos do Discourse AI em um só lugar.

:raised_hand_with_fingers_splayed: Dependendo do recurso do Discourse AI ativado, um LLM pode ser necessário. Verifique cada recurso do Discourse AI para saber se um LLM é um pré-requisito.


Funcionalidades

  • Adicionar novos modelos, com informações pré-preenchidas
  • Adicionar modelos personalizados não listados
  • Configurar configurações de LLM
  • Permitir o uso de LLM específico para o Bot de IA
    • Ver o nome de usuário do Bot de IA
  • Habilitar suporte a visão (dependente do modelo)
  • Configurar tipos de anexo permitidos
  • Configurar cotas de uso por grupo
  • Rastrear custos de tokens de entrada/saída
  • Testar
  • Salvar configurações

Adicionando conexões de LLM

  1. Acesse AdminPluginsAI
  2. Acesse a aba LLMs
  3. Adicione uma nova conexão, escolha seu modelo
  4. Adicione a chave de API (dependendo do modelo, você pode ter mais campos para inserir manualmente) e salve
  5. (Opcional) Teste sua conexão para garantir que está funcionando

LLMs Suportados

:person_tipping_hand: Você sempre pode adicionar uma opção personalizada se não vir seu modelo listado. Modelos suportados são adicionados continuamente. Modelos pré-configurados são modelos — você sempre pode obter o mesmo resultado usando a “Configuração Manual”.

Anthropic

  • Claude Opus 4.6
  • Claude Sonnet 4.6
  • Claude Haiku 4.5

Google

  • Gemini 3 Pro
  • Gemini 3 Flash

OpenAI

  • GPT-5.4
  • GPT-5 Mini
  • GPT-5 Nano

Open Router

  • DeepSeek V3.2
  • Moonshot Kimi K2.5
  • xAI Grok 4 Fast
  • MiniMax M2.5
  • Z-AI GLM-5
  • … e muitos outros

Além disso, clientes hospedados podem usar o LLM Pequeno Hospedado CDCK pré-configurado na página de configurações. Este é um LLM de pesos abertos hospedado pelo Discourse, pronto para ser usado para alimentar os recursos de IA.

Campos de Configuração

:information_source: Você verá apenas os campos relevantes para o seu provedor de LLM selecionado. Por favor, verifique novamente quaisquer dos campos pré-preenchidos com o provedor apropriado, como Model name

Campos Principais:

  • Display name — o nome amigável mostrado nos menus suspensos
  • Model name — o identificador do modelo enviado para a API (ex: claude-sonnet-4-6, gpt-5.2)
  • Provider — o serviço que hospeda o modelo (ex: Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router, etc.)
  • URL — a URL do endpoint da API (não mostrado para AWS Bedrock)
  • API Key — configurado através do sistema AI Secrets
  • Tokenizer
  • Max prompt tokens — controla o corte do prompt para evitar solicitações de tamanho excessivo
  • Max output tokens
  • Input cost / Output cost — custo por milhão de tokens, usado para rastreamento de uso
  • Cached input cost / Cache write cost — para provedores que suportam cache de prompt
  • Vision enabled — habilita a compreensão de imagens (dependente do modelo)
  • Allowed attachment types — tipos de arquivo que o modelo pode processar

Campos Específicos do Provedor (mostrados dinamicamente com base no provedor selecionado):

  • AWS Bedrock: Access Key ID, Role ARN, Region, opções de raciocínio/pensamento, Prompt caching
  • Anthropic: opções de raciocínio, Prompt caching
  • OpenAI: Organization ID, Reasoning effort, Service tier
  • Google: Enable thinking, Thinking level
  • Open Router: Provider order, Provider quantizations

Cotas (disponíveis após o salvamento inicial):

  • Cotas de uso por grupo podem ser configuradas com tokens máximos, usos máximos e duração

FAQ Técnico

O que é tokenizer?

  • O tokenizer traduz strings em tokens, que é o que um modelo usa para entender a entrada.

Qual número devo usar para Max prompt tokens?

  • Uma boa regra geral é 50% da janela de contexto do modelo, que é a soma de quantos tokens você envia e quantos tokens eles geram. Se o prompt ficar muito grande, a solicitação falhará. Esse número é usado para cortar o prompt e evitar que isso aconteça

Ressalvas

  • Às vezes, você pode não ver o modelo que queria usar listado. Embora você possa adicioná-los manualmente, daremos suporte aos modelos populares à medida que forem lançados.
11 curtidas

É muito difícil, não sei como fazer. Espero que atualizem tutoriais específicos sobre várias IAs, como as configurações de login do Google.

1 curtida

Melhoramos muito a interface do usuário na semana passada, você pode experimentá-la novamente?

3 curtidas

Quando o Gemini 2.0 será compatível?

Tenho sido apoiado por bastante tempo.

4 curtidas

Parece que tenho um problema onde não consigo selecionar um LLM mesmo tendo os gerenciados pelo CDCK configurados..

isso é normal?

2 curtidas

Há muito o que desvendar aqui, qual LLM você está tentando escolher para quê?

Os LLMs CDCK estão disponíveis apenas para recursos muito específicos. Para ver quais você precisa, vá para /admin/whats-new em sua instância e clique em “mostrar apenas recursos experimentais”. Você precisará habilitá-los para desbloquear o LLM CDCK em recursos específicos.

Qualquer LLM que você definir fora dos LLMs CDCK está disponível para todos os recursos.

4 curtidas

Existe também um tópico que oferece um resumo geral do melhor equilíbrio custo/qualidade? Ou mesmo qual LLM pode ser usado gratuitamente para uma pequena comunidade e funcionalidade básica? Posso me aprofundar nos detalhes e experimentar. Mas estou um pouco sem tempo.

Por exemplo, só me importo com detecção de spam e um filtro de palavrões. Eu tinha isso de graça, mas esses plugins estão desatualizados ou em breve estarão. Seria bom se eu pudesse manter essa funcionalidade sem ter que pagar por um LLM.

3 curtidas

Temos este tópico, que pode ser o que você procura.

2 curtidas

Feito! Foi realmente bem fácil. Mas talvez para alguém não técnico ainda possa ser um pouco difícil de configurar. Por exemplo, o nome do modelo foi definido automaticamente nas configurações, mas não era o correto. Felizmente, reconheci o nome do modelo em um exemplo de curl para Claude na página da API e então funcionou :tada:

Os custos estimados são talvez 30 centavos de euro por mês para controle de spam (eu não tenho um fórum enorme). Então, isso é gerenciável! Defini um limite de 5 euros no console da API, apenas por precaução.

1 curtida

Qual você escolheu para o Claude? Qual foi o nome incorreto exibido e para qual você o corrigiu?

1 curtida

Eu uso Claude 3.5, o ID do modelo por padrão é claude-3-5-haiku, mas precisei alterá-lo para claude-3-5-haiku-20241022, caso contrário, recebi um erro.

1 curtida

Bom saber, sim, às vezes pode haver uma desconexão. As informações pré-preenchidas devem servir como orientação, o que tende a funcionar na maioria das vezes, mas falha em certos casos como o seu (dadas todas as diferentes configurações de modelos e provedores)

Atualizei o OP deste guia

1 curtida

Este modelo não está listado em 3.4.2 - essas pré-configurações estão disponíveis apenas em 3.5 e preciso adicioná-las manualmente?

Editar: Além disso, qual opção devo escolher para “Tokenizer” ao usar modelos Grok 3?

Pré-configurações são apenas modelos, você pode obter o mesmo resultado final usando a “Configuração manual”.

Descobri que o tokenizador Gemini é bem próximo ao do Grok, então tente esse.

2 curtidas

Existe uma maneira de usar o IBM WatsonX através da configuração de gerenciamento atual, ou isso exigiria trabalho de desenvolvimento adicional pela equipe do Discourse?

Por acaso o IBM WatsonX expõe uma API compatível com a OpenAI?

Ótima pergunta. Uma rápida consulta à documentação não me disse muito, mas o fato de este repositório existir sugere que ele não é diretamente compatível: GitHub - aseelert/watsonx-openai-api: Watsonx Openai compatible API

Quais desses LLMs são gratuitos para usar contra spam?

Editar: Não se preocupe, estou usando Gemini Flash 2.5

Eu sempre me pergunto também. Esta parece ser a melhor resposta para essa pergunta.

Mas também, há isto no OP do tópico de configuração de Spam. Acho que é apenas um pouco difícil de encontrar em todas as informações que estão lá.

1 curtida