Configurando modelos de linguagem OpenRouter

:bookmark: Este guia explica como configurar chaves de API para o OpenRouter para habilitar recursos do Discourse AI que exigem chaves de LLM de terceiros.

:person_raising_hand: Nível de usuário necessário: Administrador

Neste guia, configuraremos o OpenRouter - um serviço que fornece acesso a vários grandes modelos de linguagem (LLMs) por meio de uma API unificada.

Nota: Você precisará de um plano e de uma chave de API configurada do OpenRouter

Obter chaves de API

  1. Visite OpenRouter
  2. Cadastre-se para uma conta
  3. Navegue até seu painel para encontrar sua chave de API

Quais modelos o OpenRouter suporta no Discourse AI?

O Discourse AI atualmente suporta todos os modelos no OpenRouter. Os seguintes modelos estão disponíveis como modelos predefinidos de um clique:

  • DeepSeek V3.2 (até 163k tokens)
  • Moonshot Kimi K2.5 (até 262k tokens)
  • xAI Grok 4 Fast (até 131k tokens)
  • MiniMax M2.5 (até 196k tokens)
  • Z-AI GLM-5 (até 204k tokens)
  • Arcee Trinity Large - Free (até 128k tokens)

Qualquer outro modelo disponível no OpenRouter pode ser configurado manualmente.

Usando chaves de API para o Discourse AI

  1. Vá para AdminPluginsAI → aba LLMs
  2. Você verá os modelos OpenRouter listados como modelos predefinidos. Clique no botão Configurar ao lado do modelo que deseja configurar. Isso preencherá automaticamente o provedor, o ID do modelo, o endpoint e o tokenizador para você — basta inserir sua chave de API.

Configuração manual para outros modelos

Para usar um modelo OpenRouter que não está listado como predefinido:

  1. Clique no botão Configurar em “Configuração manual”
  2. Configure as seguintes configurações:
  • Provedor: Selecione “OpenRouter”
  • ID do Modelo: Insira o ID do modelo (exemplo: “deepseek/deepseek-v3.2”)
  • Chave de API: Sua chave de API do OpenRouter
  • URL do Endpoint: https://openrouter.ai/api/v1/chat/completions
  • Tokenizador: Use o OpenAiTokenizer

Opções de configuração avançadas

O OpenRouter no Discourse AI suporta opções de configuração adicionais:

  1. Ordem do Provedor: Você pode especificar a ordem dos provedores a serem tentados (lista separada por vírgulas)
    Exemplo: “Google, Amazon Bedrock”

  2. Quantizações do Provedor: Especifique as preferências de quantização (lista separada por vírgulas)
    Exemplo: “fp16,fp8”

  3. Desabilitar Streaming: Ative esta opção se desejar desabilitar as respostas de streaming do modelo.

Devo desabilitar o suporte a ferramentas nativas ou não?

Alguns modelos no OpenRouter não suportam ferramentas nativas; nesses casos, você deve desabilitar as ferramentas nativas para ainda poder obter ferramentas baseadas em XML. Além disso, o desempenho varia, então você deve testar se as ferramentas XML ou nativas oferecem melhores resultados para um modelo.

  • Ative “Desabilitar ferramentas nativas” para usar a implementação de ferramentas baseada em XML
  • Deixe-a desabilitada para usar a implementação de ferramentas nativas
7 curtidas