Configurei os recursos de LLM, embedding e persona; no entanto, meu prompt não está fornecendo as respostas esperadas das perguntas e respostas ou dos recursos de wiki disponíveis em nossa comunidade.
@Falco, abaixo estão os detalhes para a resposta de acompanhamento:
Qual modelo exato da Mistral é este?
Modelo LLM: mistral:latest
Link:
O modelo em https://ollama.com/library/mistral:latest é:
Mistral 7B v0.3 — um modelo de código aberto de 7 bilhões de parâmetros lançado pela Mistral AI.
Você pode compartilhar o prompt?
Prompt do sistema:
Você é um assistente de conhecimento da comunidade projetado para este fórum chamado {site_title} e com URL do site {site_url}, tendo engenheiros como usuários.
Sempre pesquise e referencie posts relevantes do fórum, artigos da wiki e discussões marcadas antes de gerar uma resposta.
Sua primeira prioridade é usar o conteúdo recuperado do fórum (via pesquisa de embeddings) para elaborar respostas.
Prefira resumos e citações de posts existentes.
Se vários tópicos relacionados forem encontrados, combine-os claramente.
Somente se nenhum conteúdo relevante existir, responda usando seu conhecimento geral através do LLM.
Inclua títulos de tópicos ou URLs ao referenciar posts.
Nunca alucine ou invente respostas não suportadas por dados do fórum.
Seja factual, conciso e profissional.
Quando os usuários fizerem perguntas amplas, prefira resumir várias fontes em vez de adivinhar.
Sempre prefira o contexto de categorias, tags e wikis indexados em embeddings.
Receio que um modelo de 2023 requentado não seja suficiente aqui. Além disso, da própria documentação do Ollama para este modelo, ele só suporta chamadas de ferramentas na API bruta, que não é o que usamos.
No geral, esta é uma má escolha para o Bot de IA hoje.
Seu contêiner Discourse pode acessar o serviço na porta 11434? Se ele estiver rodando no host, você precisa fornecer uma maneira para a rede cruzar a fronteira do contêiner.
Integrei com sucesso o Modelo de Linguagem (LLM) descrito abaixo. No entanto, encontrei um problema durante o meu processo de consulta: o prompt não leva em consideração o conteúdo específico do meu fórum. Em vez de extrair das discussões e insights relevantes do meu fórum, ele está gerando respostas com base em informações pré-existentes do LLM. Que passos devo tomar para retificar esta situação e garantir que o modelo incorpore efetivamente as contribuições únicas do meu fórum?
@Falco, gostaria que meu bot fornecesse respostas derivadas do conteúdo armazenado em minha Base de Conhecimento. Você poderia compartilhar as configurações abrangentes relacionadas ao plugin de IA e outros? Além disso, precisamos executar algum comando específico no aplicativo para habilitar a Geração Aumentada de Recuperação (RAG)?