Discourse AI - KI-Suche

:bookmark: Dieser Leitfaden erklärt, wie die KI-Suchfunktion aktiviert und konfiguriert wird, die Teil des Discourse AI-Plugins ist.

:person_raising_hand: Erforderliche Benutzerebene: Administrator

Ähnlich wie bei Verwandte Themen hilft Ihnen die KI-Suche, die relevantesten Themen mithilfe semantischer Textähnlichkeit zu finden, die über eine exakte Schlüsselwortübereinstimmung hinausgehen, die von herkömmlichen Suchmaschinen verwendet wird. Dies führt zur Entdeckung von Themen, die keine exakten Übereinstimmungen sind, aber dennoch für die ursprüngliche Suche relevant sind. Wenn Sie nicht finden, wonach Sie suchen, ist die KI-Suche da, um zu helfen!

Funktionen

  • Semantische Textähnlichkeit: Geht über eine reine Schlüsselwortübereinstimmung hinaus und verwendet semantische Analyse, um Textähnlichkeit zu finden
  • KI-Schnellsuche
  • KI-Suche in der Vollbildsuche ein-/ausschaltbar
  • Ergebnisse gekennzeichnet durch :sparkles:-Symbol
  • Anwendbar für anonyme und angemeldete Benutzer

KI-Suche aktivieren

Voraussetzungen

Um die KI-Suche nutzen zu können, benötigen Sie Embeddings und ein Large Language Model (LLM).

Embeddings

Wenn Sie unser Hosting nutzen, stellen wir eine Standardoption zur Verfügung. Für Self-Hosters folgen Sie der Anleitung unter Discourse AI - Embeddings.

Large Language Model (LLM)

Discourse-Hosting-Kunden und Self-Hosters müssen mindestens ein Large Language Model (LLM) von einem Anbieter konfigurieren.

Um loszulegen, können Sie sie über die Discourse AI - Large Language Model (LLM) Einstellungen konfigurieren.

Konfiguration

  1. Gehen Sie zu den Einstellungen AdminPlugins → suchen oder finden Sie discourse-ai und stellen Sie sicher, dass es aktiviert ist.
  2. Aktivieren Sie ai_embeddings_enabled für Embeddings.
  3. Aktivieren Sie ai_embeddings_semantic_search_enabled, um die KI-Suche zu aktivieren.

Technische FAQ

Erweitern für eine Übersicht über die KI-Suchlogik
mermaid height=255,auto
sequenceDiagram
    Benutzer->>+Discourse: Suche nach "Gamification"
    Discourse->>+LLM: Erstelle einen Artikel über "Gamification" in einem Forum über
      "Discourse, ein Open-Source-Internet-Forum-System."
    LLM->>+Discourse: Gamification beinhaltet die Anwendung von Spielelementen wie
      Punkte, Abzeichen, Level und Ranglisten in Nicht-Spiel-Kontexten...
    Discourse->>+EmbeddingsAPI: Erstelle Embeddings für "Gamification beinhaltet die Anwendung von Spielelementen..."
    EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
    Discourse->>+PostgreSQL: Gib mir die nächsten Themen für [0.123, -0.321...]
    PostgreSQL->>+Discourse: Themen: [1, 5, 10, 50]
    Discourse->>+Benutzer: Themen: [1, 5, 10, 50]

Wie funktioniert die KI-Suche?

  • Die anfängliche Suchanfrage wird über ein LLM ausgeführt, das einen hypothetischen Beitrag/Thema erstellt. Anschließend werden Embeddings für diesen Beitrag erstellt und dann werden auf Ihrer Website nach ähnlichen Übereinstimmungen mit der Suchanfrage gesucht. Schließlich wird Reciprocal Rank Fusion (RFF) verwendet, um die Top-Ergebnisse im Einklang mit der regulären Suche neu zu ordnen.

Wie werden Themen-/Beitragsdaten verarbeitet?

  • LLM-Daten werden von einem Drittanbieter verarbeitet. Weitere Details finden Sie bei Ihrem spezifischen Anbieter. Standardmäßig wird der Embeddings-Mikrodienst zusammen mit anderen Servern ausgeführt, die Ihre vorhandenen Foren hosten. Hier ist keine Drittpartei beteiligt, und diese spezifischen Informationen verlassen Ihr internes Netzwerk in unserem virtuellen privaten Rechenzentrum nicht.

Wohin gehen die Daten?

  • Ein hypothetischer Beitrag/Thema, der vom LLM-Anbieter erstellt wurde, wird zusammen mit den Embeddings für dieses Dokument temporär zwischengespeichert. Embeddings-Daten werden in derselben Datenbank gespeichert, in der wir Ihre Themen, Beiträge und Benutzer speichern. Es ist eine weitere Datentabelle dort.

Wie sieht das “semantische Modell” der Embeddings aus? Wie wurde es “trainiert”, und gibt es eine Möglichkeit zu testen, ob es genau auf die Themen unserer “spezialisierten” Communities angewendet werden kann?

  • Standardmäßig verwenden wir vortrainierte Open-Source-Modelle, wie dieses hier. Wir haben es bei vielen Kunden eingesetzt und festgestellt, dass es sowohl für Nischen- als auch für allgemeine Communities gut funktioniert. Wenn die Leistung für Ihren Anwendungsfall nicht ausreicht, haben wir komplexere Modelle zur Verfügung, aber unserer Erfahrung nach ist die Standardoption eine solide Wahl.
6 „Gefällt mir“

Ich habe einen kleinen UI-Bug für das ai embeddings semantic search hyde model festgestellt. Schritte zur Reproduktion

  1. AI Discourse-Plugin installieren
  2. Einstellungen öffnen → Gemini-Schlüssel konfigurieren
  3. ai embeddings semantic search enabled aktivieren
  4. ai embeddings semantic search hyde model zeigt Google - gemini-pro (nicht konfiguriert) an.

Nicht konfiguriert verschwindet erst, nachdem alle Konfigurationen aktiviert wurden und die Seite danach aktualisiert wurde.

2 „Gefällt mir“

Ich denke, das ist eine Einschränkung unserer Seite für die Website-Einstellungen, daher entschuldige ich mich dafür und freue mich, dass Sie es lösen konnten.

1 „Gefällt mir“

Eine Frage zur Semantik. In einigen KI-Modulen sehe ich einen Verweis auf die Verwendung von Gemini, während ich in anderen einen Verweis auf Gemini-Pro sehe. Beziehen sich diese auf unterschiedliche Modelle (Gemini Nano, Pro und Ultra) oder beziehen sie sich auf dasselbe LLM? Wenn ja, wofür steht Gemini selbst und spielt es eine Rolle, ob man ein kostenpflichtiges oder ein kostenloses Abonnement für Gemini hat?

1 „Gefällt mir“

Es gibt verschiedene Gemini-Modelle, wie die, auf die Sie hingewiesen haben. Je nachdem, welches Sie haben (wahrscheinlich Pro, da es derzeit kostenlos ist), stecken Sie einfach den API-Schlüssel in die entsprechende Einstellung. Die Einstellung gilt für jedes Gemini-Modell, das Sie haben.

Das hängt von Ihnen und davon ab, wie Sie Gemini nutzen möchten, aber beides sollte funktionieren.

Mehr dazu hier:

1 „Gefällt mir“

Gibt es eine Möglichkeit, etwas in den anfänglichen Prompt für das LLM einzuschleusen oder die Embeddings zu manipulieren, bevor sie an die normale Suche weitergegeben werden?

Ich versuche, Antworten von Mitarbeitern (autoritativer) von Community-Antworten zu verstärken (oder möglicherweise auszugliedern).

2 „Gefällt mir“

Derzeit unterstützen wir keine benutzerdefinierte LLM-Prompt-Injektion innerhalb der KI-Suche, obwohl dies in Zukunft etwas sein könnte, das wir hinzufügen.

Ich empfehle, eine Feature request zu stellen!

2 „Gefällt mir“

Ich habe gerade angefangen, mit KI-Suche zu experimentieren, und es gefällt mir bisher sehr. Ich sehe keinen Grund, sie nicht immer zu verwenden. Gibt es eine Möglichkeit, nur KI-Ergebnisse anzuzeigen (außer CSS zu verwenden, um .fps-result auszublenden, aber nicht .ai-result)?

Kannst du bitte auch erläutern, wo man die Schnellsuche finden kann?

[Zitat=“Discourse, Beitrag:1, Thema:282420”]
Ich sehe eine Option für KI in der Schnellsuche?

  • Die AI-Schnellsuchoption führt die KI-Suche schneller durch, indem sie das Erstellen des hypothetischen Beitrags überspringt. Manchmal ist diese Option schneller und liefert relevantere Ergebnisse, manchmal ist sie weniger effektiv.
    [/Zitat]
1 „Gefällt mir“

Hey, das war vorübergehend exklusiv auf Meta als Experiment verfügbar. Ich habe es aus dem OP entfernt – danke, dass Sie darauf hingewiesen haben.

Wir verwenden Discourse Algolia Search für die Autovervollständigungs-Suche in der Kopfzeile. Können wir mit der Verwendung von Discourse AI - AI Search fortfahren?

Ein Beitrag wurde in ein neues Thema aufgeteilt: Benutzereinstellungen für Discourse AI nicht sichtbar