É Discourse Chatbot 🤖. A dica está no nome (embora você possa mudar o nome dele!). Por favor, poste problemas no Tópico do Chatbot. Mas, de qualquer forma, o modelo será definido nas configurações do Chatbot :).
Basta dizer para ativar os logs detalhados do Chatbot nas configurações, desviando as informações para avisar (para que você possa lê-las em produção) e verificar /logs
Sim, entendo que a IA pode ser de diferentes fornecedores, não necessariamente do Discourse.
Por isso entendi que o ‘Chatbot’ foi desenvolvido/é gerenciado pelo Discourse, mas nenhum fornecedor de IA de terceiros. E assim encontrei/prestei atenção a esta página de configurações de administrador: ..plugins/discourse-chatbot/settings (que eu havia perdido anteriormente).
Mas mesmo agora (após este novo conhecimento), ele sempre tenta responder/continua mostrando ‘Respondendo…’. (Não consigo decifrar ‘Logs’ ou mensagens do sidekiq e descobrir qual é o culpado).
Se você puder me dizer se o outro bot (ativado pela configuração abaixo) é mais completo para usar (e fácil de configurar)?
Bot de IA adicionado ao cabeçalho >> Exibir um botão no cabeçalho para iniciar um PM com um Bot de IA
~~
Se você puder, por favor, por que o menu suspenso para controlar quais modelos ele (o Plugin de Bot de IA) pode usar oferece apenas modelos ‘Chat GPT’ e como ele pode usá-los, mesmo sem pedir minha chave de API do ChatGPT (ele tem acesso à minha chave de API do ChatGPT das configurações de IA que configurei em outro lugar)?
E por último, você opinaria que este ChatBot é melhor do que o outro oferecido nas configurações de IA?
~~
Prefiro ir agora para esta página do Plugin para esclarecer minhas dúvidas acima!
Hoje estou lançando uma pequena atualização para o Chatbot, mas que corrige um bug desagradável e introduz RAG para modelos de raciocínio:
Se você acha que o Chatbot é incrível e que fiz um ótimo trabalho, pode me comprar um café, e se o Chatbot é importante para o seu negócio ou organização, por favor, considere me patrocinar em um dos níveis mais altos . Tudo isso ajudará a garantir atualizações oportunas para o Chatbot e seu futuro.
Lançamento 1.4.7
RECURSO: Adicionar modelos de raciocínio adicionais, notavelmente o3-mini
RECURSO: Suporte RAG para modelos de raciocínio (atualmente, apenas o3-mini)
CORREÇÃO: permitir que o usuário discuta imagens geradas pelo bot
NB
Se você usar o3-mini, certifique-se de dar a ele tokens suficientes em Chatbot max response tokens para que ele possa consumi-los durante o raciocínio…
discutir uma imagem requer que ela seja carregada. Dependendo da sua configuração, pode levar um minuto ou mais para que uma imagem seja carregada.
Olá, quando seleciono o mpdeli o3 mini padrão da openai, o plugin funciona corretamente e responde, mas não responde a posts com fotos. A configuração de visão está diretamente selecionada, há apenas a configuração gpt 4o, é por isso que recebo um erro?
Configurei desta forma e fiz testes, ele não consegue ver o conteúdo das imagens e não responde. Pode ser porque uso todos os níveis de confiança o3-mini? Quando mudo para todos os níveis de confiança 4o, ele responde.
Se você habilitar a configuração experimental chatbot_support_pdf, ela agora enviará o conteúdo de quaisquer PDFs carregados dentro da conversa atual para a OpenAI, que fará parte do contexto da conversa.
DICA: com cada upload na área pública, peça ao Chatbot um resumo do documento, então ele incorporará a resposta resultante e será fácil pedir ao Chatbot mais tarde para encontrá-lo.
NB: isso pode funcionar apenas com chamadas diretas para a OpenAI. Se você estiver usando outros URLs base para invocar outros serviços, não há garantia de que eles o suportarão.
É possível que um fórum novo execute este bot com um orçamento limitado ou sem custo inicial? Acho que parece interessante e gostaria de experimentá-lo, mas tenho medo de atingir a cota ou que isso me custe mais do que o esperado. Li sobre o modelo de preços da OpenAI, mas achei um pouco vago.
Ei @Olle11 não é possível executar este plugin de “forma gratuita” a não ser que você configure um LLM local na sua infraestrutura, mas isso ironicamente é uma opção cara porque você precisará de um servidor realmente potente.
No entanto, você pode obter alguns créditos grátis (US$ 5?) ao criar sua conta no OpenAI (link nas configurações)
Você pode definir cotas para diferentes níveis de usuários ou apenas torná-lo disponível para administradores, se preferir.
Usar com gpt-4o-mini não deve sair caro e esse modelo é poderoso o suficiente para algumas interações excelentes.