Discourse AI - Recherche par IA

:bookmark: Ce guide explique comment activer et configurer la fonctionnalité de recherche IA, qui fait partie du plugin Discourse AI.

:person_raising_hand: Niveau d’utilisateur requis : Administrateur

Similaire aux Sujets connexes, la recherche IA vous aide à trouver les sujets les plus pertinents en utilisant la similarité sémantique textuelle, au-delà de la correspondance exacte de mots-clés utilisée par la recherche traditionnelle. Cela permet de découvrir des sujets qui ne correspondent pas exactement mais qui sont néanmoins pertinents par rapport à la recherche initiale. Si vous ne trouvez pas ce que vous cherchez, la recherche IA est là pour vous aider !

Fonctionnalités

  • Similarité sémantique textuelle : aller au-delà de la simple correspondance de mots-clés et utiliser l’analyse sémantique pour trouver une similarité textuelle
  • Recherche rapide IA
  • Activation/désactivation de la recherche IA dans la recherche en page complète
  • Résultats indiqués par l’icône :sparkles:
  • Applicable aux utilisateurs anonymes et connectés

Activation de la recherche IA

Prérequis

Pour utiliser la recherche IA, vous aurez besoin d’Embeddings et d’un Grand Modèle de Langage (LLM).

Embeddings

Si vous êtes sur notre hébergement, nous fournirons une option par défaut. Pour les auto-hébergeurs, suivez le guide sur Discourse AI - Embeddings.

Grand Modèle de Langage (LLM)

Les clients hébergés par Discourse et les auto-hébergeurs doivent configurer au moins un Grand Modèle de Langage (LLM) auprès d’un fournisseur.

Pour commencer, vous pouvez les configurer via la page des paramètres Discourse AI - Grand Modèle de Langage (LLM).

Configuration

  1. Allez dans les paramètres AdminPlugins → recherchez ou trouvez discourse-ai et assurez-vous qu’il est activé
  2. Activez ai_embeddings_enabled pour les Embeddings
  3. Activez ai_embeddings_semantic_search_enabled pour activer la recherche IA

FAQ Technique

Développer pour un aperçu de la logique de recherche IA
mermaid height=255,auto
sequenceDiagram
    Utilisateur->>+Discourse: Rechercher "gamification"
    Discourse->>+LLM: Créer un article sur "gamification" dans un forum concernant
      "Discourse, un système de forum Internet open source."
    LLM->>+Discourse: La gamification implique l'application d'éléments de conception de jeux comme
      des points, des badges, des niveaux et des classements à des contextes non ludiques...
    Discourse->>+EmbeddingsAPI: Générer des Embeddings pour "La gamification implique l'application d'éléments de conception de jeux..."
    EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
    Discourse->>+PostgreSQL: Donnez-moi les sujets les plus proches pour [0.123, -0.321...]
    PostgreSQL->>+Discourse: Sujets : [1, 5, 10, 50]
    Discourse->>+Utilisateur: Sujets : [1, 5, 10, 50]

Comment fonctionne la recherche IA ?

  • La requête de recherche initiale est exécutée via un LLM qui crée un sujet/une publication hypothétique. Ensuite, des Embeddings sont générés pour cette publication, puis votre site est recherché pour trouver des correspondances similaires à la requête de recherche. Enfin, il utilise le Reciprocal Rank Fusion (RFF) pour réorganiser les meilleurs résultats en ligne avec la recherche normale.

Comment les données des sujets/publications sont-elles traitées ?

  • Les données du LLM sont traitées par un fournisseur tiers, veuillez vous référer à votre fournisseur spécifique pour plus de détails. Par défaut, le microservice Embeddings est exécuté aux côtés d’autres serveurs qui hébergent vos forums existants. Il n’y a pas de tiers impliqué ici, et ces informations spécifiques ne quittent jamais votre réseau interne dans notre centre de données virtuel privé.

Où vont les données ?

  • Un sujet/une publication hypothétique créé par le fournisseur LLM est temporairement mis en cache aux côtés des Embeddings pour ce document. Les données des Embeddings sont stockées dans la même base de données où nous stockons vos sujets, publications et utilisateurs. C’est une autre table de données.

À quoi ressemble le « modèle sémantique » des Embeddings ? Comment a-t-il été « entraîné », et existe-t-il un moyen de tester qu’il peut s’appliquer avec précision aux sujets de nos communautés « spécialisées » ?

  • Par défaut, nous utilisons des modèles open source pré-entraînés, comme celui-ci. Nous avons déployé chez de nombreux clients et constaté qu’il fonctionne bien pour les communautés de niche et générales. Si les performances ne sont pas suffisantes pour votre cas d’utilisation, nous avons des modèles plus complexes prêts à l’emploi, mais selon notre expérience, l’option par défaut est un choix solide.
6 « J'aime »

J’ai remarqué un bug mineur de l’interface utilisateur pour ai embeddings semantic search hyde model. Étapes pour reproduire

  1. Installer le plugin AI Discourse
  2. Ouvrir les paramètres → Configurer la clé Gemini
  3. Activer i embeddings semantic search enabled
  4. ai embeddings semantic search hyde model affiche Google - gemini-pro (non configuré)

Le non configuré ne disparaît qu’après que toutes les configurations sont activées et que la page est actualisée par la suite.

2 « J'aime »

Je pense que c’est une limitation de notre page de paramètres de site, donc je m’en excuse et je suis content que vous ayez pu résoudre le problème.

1 « J'aime »

Une question de sémantique. Dans certains modules d’IA, je vois une référence à l’utilisation de Gemini, tandis que dans d’autres, je vois une référence à Gemini-Pro. Font-ils référence à des modèles différents (Gemini Nano, Pro et Ultra) ou font-ils référence au même LLM ? Si oui, alors à quoi fait référence Gemini lui-même et est-ce que cela importe si l’on a un abonnement payant ou gratuit à Gemini ?

1 « J'aime »

Il existe différents modèles Gemini, tels que ceux que vous avez mentionnés. Selon celui que vous avez (probablement Pro car il est gratuit actuellement), vous n’avez qu’à brancher la clé API dans le paramètre pertinent. Le paramètre concerne le modèle Gemini que vous avez.

Cela dépendrait de vous et de la manière dont vous souhaitez utiliser Gemini, mais l’un ou l’autre devrait fonctionner.

Plus d’informations ici :

1 « J'aime »

Existe-t-il un moyen d’injecter quelque chose dans l’invite initiale du LLM ou de manipuler les embeddings avant qu’ils ne soient transmis à la recherche normale ?

J’essaie de renforcer (ou éventuellement de séparer) les réponses du personnel (plus faisant autorité) des réponses de la communauté.

2 « J'aime »

Actuellement, nous ne prenons pas en charge l’injection personnalisée d’invites LLM dans AI Search, bien que cela puisse être quelque chose à ajouter à l’avenir.

Je vous recommande de faire une demande de fonctionnalité !

2 « J'aime »

Je viens de commencer à jouer avec la recherche IA et j’aime ça jusqu’à présent. Je ne trouve aucune raison de ne pas l’utiliser tout le temps. Existe-t-il un moyen de n’afficher que les résultats de l’IA (autre que d’utiliser CSS pour masquer .fps-result mais pas .ai-result) ?

Pouvez-vous également m’expliquer où trouver la recherche rapide ?

1 « J'aime »

Hé, c’était temporairement disponible exclusivement sur Meta à titre d’expérience. Je l’ai retiré de l’OP - merci de l’avoir signalé.

Nous utilisons Discourse Algolia Search pour la recherche prédictive dans l’en-tête. Pouvons-nous continuer à utiliser Discourse AI - AI search ?

Un message a été divisé en un nouveau sujet : Ne pas voir le panneau des préférences utilisateur pour Discourse AI