Este guia abrange a página de configurações de LLM, que faz parte do plugin Discourse AI.
Nível de usuário necessário: Administrador
A página de configurações dedicada foi projetada para ter tudo relacionado a Modelos de Linguagem Grandes (LLMs) usados para recursos de IA do Discourse em um só lugar.
Dependendo do recurso de IA do Discourse habilitado, um LLM pode ser necessário. Verifique cada recurso de IA do Discourse para saber se um LLM é um pré-requisito.
Recursos
- Adicionar novos modelos, com informações pré-preenchidas
- Adicionar modelos personalizados não mencionados
- Configurar configurações de LLM
- Permitir o uso específico de LLM para o Bot de IA
- Ver o nome de usuário do Bot de IA
- Habilitar suporte de visão (dependente do modelo)
- Testar
- Salvar configurações
Adicionando conexões LLM
- Vá para
Admin→Plugins→AI- Vá para a aba
LLMs- Adicione uma nova conexão, escolha seu modelo
- Adicione a chave de API (dependendo do modelo, você pode ter mais campos para inserir manualmente) e salve
- (Opcional) Teste sua conexão para garantir que está funcionando
LLMs Suportados
Você sempre pode adicionar uma opção personalizada se não vir seu modelo listado. Modelos suportados são continuamente adicionados.
- Grok-2
- Deepseek-R1
- Nova Pro
- Nova Lite
- Nova Micro
- o3-pro
- o3
- o3-mini
- GPT-4.1 (incluindo: nano, mini)
- GPT-4o
- GPT-4o mini
- OpenAI o1 Preview
- OpenAI o1 mini Preview
- Claude Sonnet 3.7
- Claude Sonnet 3.5
- Claude Haiku 3.5
- Gemini Pro 1.5
- Gemini Flash 1.5
- Gemini Flash 2.0
- Llama 3.1
- Llama 3.3
- Mistral large
- Pixtral large
- Qwen 2.5 Coder
Além disso, clientes hospedados podem usar o CDCK Hosted Small LLM (Qwen 2.5) pré-configurado na página de configurações. Este é um LLM de pesos abertos hospedado pelo Discourse, pronto para uso para potencializar recursos de IA.
Campos de Configuração
Você verá apenas os campos relevantes para o seu provedor de LLM selecionado. Por favor, verifique novamente quaisquer campos pré-preenchidos com o provedor apropriado, como
Nome do modelo
Nome para exibirNome do modeloServiço que hospeda o modeloURL do serviço que hospeda o modeloChave de API do serviço que hospeda o modeloID da chave de acesso AWS BedrockRegião AWS BedrockID de organização OpenAI opcionalTokenizadorNúmero de tokens para o promptHabilitar API de respostas(Apenas OpenAI, certifique-se de definir a URL parahttps://api.openai.com/v1/responses)FAQ Técnico
O que é tokenizador?
- O tokenizador traduz strings em tokens, que é o que um modelo usa para entender a entrada.
Que número devo usar para
Número de tokens para o prompt?
- Uma boa regra geral é 50% da janela de contexto do modelo, que é a soma de quantos tokens você envia e quantos tokens eles geram. Se o prompt ficar muito grande, a solicitação falhará. Esse número é usado para aparar o prompt e evitar que isso aconteça.
Ressalvas
- Às vezes, você pode não ver o modelo que desejava usar listado. Embora você possa adicioná-los manualmente, suportaremos modelos populares à medida que eles forem lançados.
É muito difícil, não sei como fazer. Espero que atualizem tutoriais específicos sobre várias IAs, como as configurações de login do Google.
Melhoramos muito a interface do usuário na semana passada, você pode experimentá-la novamente?
Quando o Gemini 2.0 será compatível?
Tenho sido apoiado por bastante tempo.
Parece que tenho um problema onde não consigo selecionar um LLM mesmo tendo os gerenciados pelo CDCK configurados..
isso é normal?
Há muito o que desvendar aqui, qual LLM você está tentando escolher para quê?
Os LLMs CDCK estão disponíveis apenas para recursos muito específicos. Para ver quais você precisa, vá para /admin/whats-new em sua instância e clique em “mostrar apenas recursos experimentais”. Você precisará habilitá-los para desbloquear o LLM CDCK em recursos específicos.
Qualquer LLM que você definir fora dos LLMs CDCK está disponível para todos os recursos.
Existe também um tópico que oferece um resumo geral do melhor equilíbrio custo/qualidade? Ou mesmo qual LLM pode ser usado gratuitamente para uma pequena comunidade e funcionalidade básica? Posso me aprofundar nos detalhes e experimentar. Mas estou um pouco sem tempo.
Por exemplo, só me importo com detecção de spam e um filtro de palavrões. Eu tinha isso de graça, mas esses plugins estão desatualizados ou em breve estarão. Seria bom se eu pudesse manter essa funcionalidade sem ter que pagar por um LLM.
Temos este tópico, que pode ser o que você procura.
Feito! Foi realmente bem fácil. Mas talvez para alguém não técnico ainda possa ser um pouco difícil de configurar. Por exemplo, o nome do modelo foi definido automaticamente nas configurações, mas não era o correto. Felizmente, reconheci o nome do modelo em um exemplo de curl para Claude na página da API e então funcionou ![]()
Os custos estimados são talvez 30 centavos de euro por mês para controle de spam (eu não tenho um fórum enorme). Então, isso é gerenciável! Defini um limite de 5 euros no console da API, apenas por precaução.
Qual você escolheu para o Claude? Qual foi o nome incorreto exibido e para qual você o corrigiu?
Eu uso Claude 3.5, o ID do modelo por padrão é claude-3-5-haiku, mas precisei alterá-lo para claude-3-5-haiku-20241022, caso contrário, recebi um erro.
Bom saber, sim, às vezes pode haver uma desconexão. As informações pré-preenchidas devem servir como orientação, o que tende a funcionar na maioria das vezes, mas falha em certos casos como o seu (dadas todas as diferentes configurações de modelos e provedores)
Atualizei o OP deste guia
Este modelo não está listado em 3.4.2 - essas pré-configurações estão disponíveis apenas em 3.5 e preciso adicioná-las manualmente?
Editar: Além disso, qual opção devo escolher para “Tokenizer” ao usar modelos Grok 3?
Pré-configurações são apenas modelos, você pode obter o mesmo resultado final usando a “Configuração manual”.
Descobri que o tokenizador Gemini é bem próximo ao do Grok, então tente esse.
Existe uma maneira de usar o IBM WatsonX através da configuração de gerenciamento atual, ou isso exigiria trabalho de desenvolvimento adicional pela equipe do Discourse?
Por acaso o IBM WatsonX expõe uma API compatível com a OpenAI?
Ótima pergunta. Uma rápida consulta à documentação não me disse muito, mas o fato de este repositório existir sugere que ele não é diretamente compatível: GitHub - aseelert/watsonx-openai-api: Watsonx Openai compatible API
Quais desses LLMs são gratuitos para usar contra spam?
Editar: Não se preocupe, estou usando Gemini Flash 2.5
Eu sempre me pergunto também. Esta parece ser a melhor resposta para essa pergunta.
Mas também, há isto no OP do tópico de configuração de Spam. Acho que é apenas um pouco difícil de encontrar em todas as informações que estão lá.


