Discourse AI

Muito obrigado

1 curtida

Podemos usar Deepseek?

3 curtidas

Sim, ele tem uma API compatível com Open AI

5 curtidas

Por favor, não consegui encontrar esta configuração (nem a que você mostrou na SUA captura de tela) em Administrador > Configurações de IA.

1 curtida

Isso está disponível em Personas, selecione uma persona específica editável (não do sistema) e veja abaixo o prompt.

2 curtidas

4 posts foram mesclados em um tópico existente: O RAG suportará arquivos PDF no futuro?

Um post foi separado para um novo tópico: Fornecer sinal visual quando um tópico estiver recebendo uma resposta de IA

2 posts foram divididos para um novo tópico: Ways to add knowledge to my persona

2 posts foram separados para um novo tópico: Preocupações sobre privacidade pessoal com o plugin de IA

Bem-vindo ao Discourse Meta!

Você vai querer postar isso em Support

3 curtidas

Olá a todos, estamos auto-hospedando o vLLM e gerando tokens de API com Fernet, que possuem o sinal “=”. Pelo que parece, verificando em /var/discourse/shared/standalone/log/var-log/nginx/error.log, o sinal “=” está sendo substituído por “%3D” e, portanto, minha solicitação não está sendo autorizada.
Isso poderia ser o caso? Poderia ser resolvido?

Obrigado pela contribuição.
Meu caso é bem simples. Já temos os serviços vLLM e openWebUI expondo LLMs para o mundo. Ambos funcionam bem. Também consigo verificar com chamadas cURL simples que posso acessar ambos de dentro do contêiner Discourse:
vLLM:

   curl -v ${LLM_URL} -H "Content-Type: application/json" -H "Authorization: Bearer ${LLM_TOKEN}" \
        -d '{
           "model": "'"${LLM_MODEL}"'",
           "prompt": "'"${TEST_PROMPT}"'",
           "max_tokens": 128,
           "temperature": 0
        }'

openWebUI:

   curl -v ${LLM_URL} -H "Content-Type: application/json" -H "Authorization: Bearer ${LLM_TOKEN}" \
        -d '{
           "model": "'"${LLM_MODEL}"'",
           "messages": [
              { "role": "user",
                "content": "'"${TEST_PROMPT}"'"
              }
           ]
        }'

Agora instalei o plugin discourse-ai em um Discourse auto-hospedado e tentei configurar o acesso via “LLMs”-“>“Configuração manual”-”>Provider=vLLM. Em ambos os casos, preciso fornecer a CHAVE API. Infelizmente… nenhum funciona:

vLLM com token Fernet retorna “error”:“Não autorizado”}
openWebUI retorna "{“detail”:“Não autenticado”}

Minha suspeita é que o token Fernet falha devido ao sinal “=” convertido para “%3D”, mas estou ainda mais intrigado com o openWebUI por causa de “Não autenticado”, enquanto o token é apenas uma string.

Não tenho ideia de como o plugin “discourse-ai” envia o token/API_KEY no caso do vLLM, mas espero que seja via cabeçalho "Bearer ".

Qualquer ajuda é bem-vinda ou experiência na configuração do vLLM com API_KEY

Tente definir o provedor de API como OpenAI se você precisar da API no formato de token de portador.

Isso funcionou pelo menos para o openWebUI! Muito obrigado!

2 posts foram divididos em um novo tópico: Melhores modelos e prompts para testar a pesquisa e descobertas do Discord

Estou com um problema relacionado à saída da IA no meu fórum. O idioma do meu fórum é “Árabe”, então ele deve ser configurado para definir o idioma da saída da IA para que se ajuste ao idioma do fórum, pois não é apropriado pedir um resumo do tópico e todo o tópico em árabe e a saída está vindo para mim em “Inglês”.

Diga nos prompts que a IA deve responder em árabe. Em teoria, “responder usando o mesmo idioma” também deveria funcionar, mas raramente funcionou para mim, no contexto finlandês com os modelos da OpenAI de qualquer forma.

Então, você tem uma configuração e esse é o prompt do sistema do agente/pessoa de IA usado.

Faz sentido usar esse comportamento como padrão quando um idioma diferente do inglês é detectado?

Estou repetindo todas as personas usando espanhol, é difícil mantê-las atualizadas com tantas (boas) mudanças.


Como posso ativar este pesquisador de fórum (onde nas configurações), pois não está claro

Você pode configurá-lo na aba Personas do plugin de IA.

4 curtidas