Este guia explica como configurar chaves de API para o OpenRouter para habilitar recursos do Discourse AI que exigem chaves de LLM de terceiros.
Nível de usuário necessário: Administrador
Neste guia, configuraremos o OpenRouter - um serviço que fornece acesso a vários grandes modelos de linguagem (LLMs) por meio de uma API unificada.
Nota: Você precisará de um plano e de uma chave de API configurada do OpenRouter
Obter chaves de API
- Visite OpenRouter
- Cadastre-se para uma conta
- Navegue até seu painel para encontrar sua chave de API
Quais modelos o OpenRouter suporta no Discourse AI?
O Discourse AI atualmente suporta todos os modelos no OpenRouter. Os seguintes modelos estão disponíveis como modelos predefinidos de um clique:
- DeepSeek V3.2 (até 163k tokens)
- Moonshot Kimi K2.5 (até 262k tokens)
- xAI Grok 4 Fast (até 131k tokens)
- MiniMax M2.5 (até 196k tokens)
- Z-AI GLM-5 (até 204k tokens)
- Arcee Trinity Large - Free (até 128k tokens)
Qualquer outro modelo disponível no OpenRouter pode ser configurado manualmente.
Usando chaves de API para o Discourse AI
- Vá para
Admin→Plugins→AI→ abaLLMs - Você verá os modelos OpenRouter listados como modelos predefinidos. Clique no botão Configurar ao lado do modelo que deseja configurar. Isso preencherá automaticamente o provedor, o ID do modelo, o endpoint e o tokenizador para você — basta inserir sua chave de API.
Configuração manual para outros modelos
Para usar um modelo OpenRouter que não está listado como predefinido:
- Clique no botão Configurar em “Configuração manual”
- Configure as seguintes configurações:
- Provedor: Selecione “OpenRouter”
- ID do Modelo: Insira o ID do modelo (exemplo: “deepseek/deepseek-v3.2”)
- Chave de API: Sua chave de API do OpenRouter
- URL do Endpoint:
https://openrouter.ai/api/v1/chat/completions - Tokenizador: Use o OpenAiTokenizer
Opções de configuração avançadas
O OpenRouter no Discourse AI suporta opções de configuração adicionais:
-
Ordem do Provedor: Você pode especificar a ordem dos provedores a serem tentados (lista separada por vírgulas)
Exemplo: “Google, Amazon Bedrock” -
Quantizações do Provedor: Especifique as preferências de quantização (lista separada por vírgulas)
Exemplo: “fp16,fp8” -
Desabilitar Streaming: Ative esta opção se desejar desabilitar as respostas de streaming do modelo.
Devo desabilitar o suporte a ferramentas nativas ou não?
Alguns modelos no OpenRouter não suportam ferramentas nativas; nesses casos, você deve desabilitar as ferramentas nativas para ainda poder obter ferramentas baseadas em XML. Além disso, o desempenho varia, então você deve testar se as ferramentas XML ou nativas oferecem melhores resultados para um modelo.
- Ative “Desabilitar ferramentas nativas” para usar a implementação de ferramentas baseada em XML
- Deixe-a desabilitada para usar a implementação de ferramentas nativas