Consulta de Configuração: Resumo de IA em Discourse e Integração de LLM

Olá, Equipe de Suporte do Discourse,

Tenho algumas perguntas sobre o uso de sumarização por IA no Discourse e agradeceria sua ajuda para me guiar no processo de configuração:

  1. Como Inicializar a Sumarização por IA:

    • Quais passos preciso seguir para ativar e configurar a sumarização por IA no Discourse?
    • Existem plugins necessários para começar com a sumarização por IA? Se sim, quais e onde posso encontrá-los?
  2. Usando Nosso Próprio LLM (do Dify):

    • É possível integrar nosso LLM personalizado, criado através da aplicação Dify, para tarefas de sumarização no Discourse? Se sim, como podemos fazer isso usando uma API?
    • Vocês podem fornecer alguma documentação de API ou guias de integração para conectar LLMs de terceiros ao Discourse?
  3. Custo dos Modelos de IA no Discourse:

    • Modelos de LLM Disponíveis: Quais são os diferentes modelos de sumarização por IA disponíveis no Discourse e como escolho entre eles?
    • Modelos Gratuitos vs. Pagos: Algum dos modelos de LLM é gratuito para usar, ou há um custo associado a todos eles?
    • Restrições de Uso: Existem limitações de uso para modelos gratuitos, como limites diários de requisições ou restrições de tokens?
    • Métricas de Custo: Qual é a estrutura de preços para cada modelo, incluindo quaisquer custos por requisição ou por token? Se houver vários níveis de preços, vocês podem fornecer um detalhamento para cada modelo?
  4. Informações Adicionais:

    • Por favor, me informem se há considerações adicionais ou passos que preciso tomar para utilizar totalmente os recursos de sumarização por IA no Discourse.

Agradeço antecipadamente pela sua ajuda!

Olá @S.AAKASH_MUTHIAH, a maioria das suas perguntas pode ser respondida na documentação do plugin de IA aqui.


Veja:

E:


Sim, o plugin ai. Ele está incluído no core se você estiver atualizado, basta ir em /admin/plugins para ativá-lo e configurá-lo.



A maioria é paga, mas você pode dar uma olhada no OpenRouter, que também oferece alguns modelos gratuitos.


Pelo que sei, isso dependerá do seu provedor, mas se eu estiver errado, você também pode impor limites no Discourse.

Talvez veja:


Isso dependerá do seu provedor de LLM de IA; eles diferem.


Veja toda a documentação do plugin de IA aqui.

Para as configurações oferecidas no plugin, veja este guia.


Espero que ajude!

1 curtida

Olá,
Muito obrigado pela sua resposta rápida e útil!

Verifiquei as opções do plugin na minha instância do Discourse, mas não vejo nada relacionado a IA listado lá. Anexei uma imagem mostrando as opções de plugin disponíveis do meu lado — você poderia dar uma olhada e me dizer se estou perdendo alguma coisa?

Você está na versão mais recente que passou nos testes?

1 curtida

minha versão atual

Tente atualizar seu fórum e veja se isso funciona.

1 curtida

Obrigado, funcionou agora.

Tenho uma pergunta. Criei um fluxo de trabalho no DIFY e agora quero usar a API desse fluxo de trabalho para integrar meu próprio LLM. Você também poderia me informar em qual formato a entrada deve ser enviada?
E onde adicionar a API.
E qual opção precisa ser clicada para configurar a nossa própria.

Encontrei uma coisa, é nesta página que preciso configurar as definições?


Se sim, qual opção devo selecionar neste menu suspenso

Se você escolher ‘Configuração manual’ na página de LLMs e inserir suas chaves lá, funciona?

Não uso o plugin de IA há algum tempo, então minha memória dele está um pouco nebulosa.

Gostaria de entender o tipo de entrada que será enviada para o endpoint da API a partir do Discourse.

@S.AAKASH_MUTHIAH como você está progredindo com a configuração de IA em seu site? Vou agendar o encerramento deste tópico - você sempre pode iniciar novos tópicos quando tiver novas perguntas.

Como @NateDhaliwal apontou, muitas de suas perguntas são respondidas na documentação. Por favor, consulte-a antes de fazer perguntas.

Este tópico foi automaticamente fechado após 6 dias. Novas respostas não são mais permitidas.