Ce guide explique comment activer et configurer la fonctionnalité de recherche IA, qui fait partie du plugin Discourse AI.
Niveau d’utilisateur requis : Administrateur
Similaire aux Sujets connexes, la recherche IA vous aide à trouver les sujets les plus pertinents en utilisant la similarité sémantique textuelle, au-delà de la correspondance exacte de mots-clés utilisée par la recherche traditionnelle. Cela permet de découvrir des sujets qui ne correspondent pas exactement mais qui sont néanmoins pertinents par rapport à la recherche initiale. Si vous ne trouvez pas ce que vous cherchez, la recherche IA est là pour vous aider !
Fonctionnalités
- Similarité sémantique textuelle : aller au-delà de la simple correspondance de mots-clés et utiliser l’analyse sémantique pour trouver une similarité textuelle
- Recherche rapide IA
- Activation/désactivation de la recherche IA dans la recherche en page complète
- Résultats indiqués par l’icône

- Applicable aux utilisateurs anonymes et connectés
Activation de la recherche IA
Prérequis
Pour utiliser la recherche IA, vous aurez besoin d’Embeddings et d’un Grand Modèle de Langage (LLM).
Embeddings
Si vous êtes sur notre hébergement, nous fournirons une option par défaut. Pour les auto-hébergeurs, suivez le guide sur Discourse AI - Embeddings.
Grand Modèle de Langage (LLM)
Les clients hébergés par Discourse et les auto-hébergeurs doivent configurer au moins un Grand Modèle de Langage (LLM) auprès d’un fournisseur.
Pour commencer, vous pouvez les configurer via la page des paramètres Discourse AI - Grand Modèle de Langage (LLM).
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock avec accès Anthropic
- Endpoints HuggingFace avec un modèle de type Llama2
- Auto-hébergement d’un LLM OpenSource pour DiscourseAI
- Google Gemini
Configuration
- Allez dans les paramètres
Admin→Plugins→ recherchez ou trouvezdiscourse-aiet assurez-vous qu’il est activé - Activez
ai_embeddings_enabledpour les Embeddings - Activez
ai_embeddings_semantic_search_enabledpour activer la recherche IA
FAQ Technique
Développer pour un aperçu de la logique de recherche IA
mermaid height=255,auto
sequenceDiagram
Utilisateur->>+Discourse: Rechercher "gamification"
Discourse->>+LLM: Créer un article sur "gamification" dans un forum concernant
"Discourse, un système de forum Internet open source."
LLM->>+Discourse: La gamification implique l'application d'éléments de conception de jeux comme
des points, des badges, des niveaux et des classements à des contextes non ludiques...
Discourse->>+EmbeddingsAPI: Générer des Embeddings pour "La gamification implique l'application d'éléments de conception de jeux..."
EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
Discourse->>+PostgreSQL: Donnez-moi les sujets les plus proches pour [0.123, -0.321...]
PostgreSQL->>+Discourse: Sujets : [1, 5, 10, 50]
Discourse->>+Utilisateur: Sujets : [1, 5, 10, 50]
Comment fonctionne la recherche IA ?
- La requête de recherche initiale est exécutée via un LLM qui crée un sujet/une publication hypothétique. Ensuite, des Embeddings sont générés pour cette publication, puis votre site est recherché pour trouver des correspondances similaires à la requête de recherche. Enfin, il utilise le Reciprocal Rank Fusion (RFF) pour réorganiser les meilleurs résultats en ligne avec la recherche normale.
Comment les données des sujets/publications sont-elles traitées ?
- Les données du LLM sont traitées par un fournisseur tiers, veuillez vous référer à votre fournisseur spécifique pour plus de détails. Par défaut, le microservice Embeddings est exécuté aux côtés d’autres serveurs qui hébergent vos forums existants. Il n’y a pas de tiers impliqué ici, et ces informations spécifiques ne quittent jamais votre réseau interne dans notre centre de données virtuel privé.
Où vont les données ?
- Un sujet/une publication hypothétique créé par le fournisseur LLM est temporairement mis en cache aux côtés des Embeddings pour ce document. Les données des Embeddings sont stockées dans la même base de données où nous stockons vos sujets, publications et utilisateurs. C’est une autre table de données.
À quoi ressemble le « modèle sémantique » des Embeddings ? Comment a-t-il été « entraîné », et existe-t-il un moyen de tester qu’il peut s’appliquer avec précision aux sujets de nos communautés « spécialisées » ?
- Par défaut, nous utilisons des modèles open source pré-entraînés, comme celui-ci. Nous avons déployé chez de nombreux clients et constaté qu’il fonctionne bien pour les communautés de niche et générales. Si les performances ne sont pas suffisantes pour votre cas d’utilisation, nous avons des modèles plus complexes prêts à l’emploi, mais selon notre expérience, l’option par défaut est un choix solide.