Este guia explica como ativar e configurar o recurso Tópicos Relacionados do plugin Discourse AI.
Nível de usuário necessário: Administrador
O Tópicos Relacionados ajuda os usuários a descobrir conteúdo relevante, sugerindo tópicos semanticamente semelhantes com base naquele que estão lendo no momento. Isso aprimora a exploração de conteúdo e aumenta o engajamento do usuário.
Recursos
- Similaridade textual semântica: Vai além da correspondência de palavras-chave para encontrar conteúdo verdadeiramente relacionado
- Alternância entre tópicos “Sugeridos” e “Relacionados”
- Disponível para usuários anônimos e logados
Ativando Tópicos Relacionados
O Tópicos Relacionados está ativado por padrão para todos os clientes hospedados no Discourse com o plugin Discourse AI ativado.
Pré-requisitos
O Tópicos Relacionados requer Embeddings para funcionar.
Se você estiver em nossa hospedagem, Embeddings é fornecido usando um modelo de código aberto. Nenhuma configuração adicional é necessária.
Instâncias auto-hospedadas precisarão configurar um modelo de embedding através de um provedor suportado.
Configuração
- Acesse Admin → Plugins → Discourse AI → AI Features (Recursos de IA)
- Encontre o módulo Embeddings e configure-o:
- Defina
ai_embeddings_selected_modelpara uma definição de embedding que você configurou - Ative
ai_embeddings_enabledpara ativar Embeddings
- Defina
- Ative
ai_embeddings_semantic_related_topics_enabledpara ativar o recurso Tópicos Relacionados
Configurando um modelo de embedding
Antes de ativar os embeddings, você precisa configurar um modelo de embedding. Acesse Admin → Plugins → Discourse AI → Embeddings para criar uma nova definição de embedding. Você pode escolher entre várias predefinições:
- Open AI:
text-embedding-3-smalloutext-embedding-3-large(recomendado para a maioria dos sites) - Google:
gemini-embedding-001 - Hugging Face (inferência auto-hospedada):
multilingual-e5-large(recomendado para sites não-ingleses ou multilíngues),bge-large-en, oubge-m3
Você precisará fornecer uma chave de API (ou vincular um Segredo de IA) e um URL de endpoint para o provedor escolhido.
Configurações adicionais
As seguintes configurações permitem ajustar o recurso Tópicos Relacionados:
ai_embeddings_semantic_related_topics: Número máximo de tópicos a serem exibidos na seção de tópicos relacionados (padrão: 5)ai_embeddings_semantic_related_include_closed_topics: Se deve incluir tópicos fechados nos resultados relacionados (padrão: true)ai_embeddings_semantic_related_age_penalty: Aplica uma penalidade a tópicos mais antigos para que conteúdo mais novo seja preferido (padrão: 0.0, intervalo: 0.0–2.0)ai_embeddings_semantic_related_age_time_scale: Escala de tempo em dias para a penalidade de idade (padrão: 365)
FAQ Técnico
Expandir para ver um diagrama da arquitetura do Tópicos Relacionados
O resumo é que, quando um tópico é criado/atualizado, isto acontece:
sequenceDiagram
User->>Discourse: Cria tópico
Discourse-->>Embedding Microservice: Gera embeddings
Embedding Microservice-->>Discourse:
Discourse-->>PostgreSQL: Armazena Embeddings
E durante a visita ao tópico:
sequenceDiagram
User->>Discourse: Visita tópico
Discourse-->>PostgreSQL: Consulta tópicos mais próximos
PostgreSQL-->>Discourse:
Discourse->>User: Apresenta tópicos relacionados
Como funciona o Tópicos Relacionados?
- Quando um usuário visita um tópico, o Discourse consulta o banco de dados em busca dos tópicos mais semanticamente semelhantes com base em suas representações incorporadas. Esses tópicos relacionados são então apresentados ao usuário, incentivando a exploração contínua do conteúdo da comunidade.
Como os dados de tópico/postagem são processados?
- Para sites hospedados pelo Discourse, os dados são processados dentro de nosso data center de nuvem privada virtual segura. Para sites auto-hospedados, o processamento de dados depende do provedor de terceiros escolhido.
Onde os dados de embeddings são armazenados?
- Os dados de embeddings são armazenados em seu banco de dados do Discourse, juntamente com outros dados do fórum, como tópicos, postagens e usuários.
Quais modelos de embedding estão disponíveis?
- O Discourse AI suporta modelos da OpenAI (
text-embedding-3-small,text-embedding-3-large), Google (gemini-embedding-001), endpoints compatíveis com Hugging Face (bge-large-en,bge-m3,multilingual-e5-large) e Cloudflare Workers AI. Você também pode configurar modelos de embedding personalizados através da interface de administração.