Diese Anleitung erklärt, wie Sie die KI-Suchfunktion aktivieren und konfigurieren, die Teil des Discourse AI-Plugins ist.
Erforderlicher Benutzer-Level: Administrator
Ähnlich wie bei Verwandte Themen hilft Ihnen die KI-Suche dabei, die relevantesten Themen mithilfe semantischer Textähnlichkeit zu finden, die über eine exakte Schlüsselwortsuche hinausgehen, die traditionelle Suchmaschinen verwenden. Dies führt zur Entdeckung von Themen, die keine exakten Übereinstimmungen sind, aber dennoch für die ursprüngliche Suche relevant sind. Wenn Sie nicht finden, wonach Sie suchen, ist die KI-Suche da, um zu helfen!
Funktionen
- Semantische Textähnlichkeit: Geht über eine reine Schlüsselwortübereinstimmung hinaus und verwendet semantische Analyse, um Textähnlichkeit zu finden
- KI-Schnellsuche: Fügt automatisch KI-Ergebnisse im Suchmenü-Popup hinzu, wenn nur wenige reguläre Ergebnisse gefunden werden (aktivierbar mit
ai_embeddings_semantic_quick_search_enabled) - Umschaltbar für KI-Suche in der Vollseitensuche
- Optionales HyDE (Hypothetical Document Embeddings): Verwendet ein LLM, um Abfragen für bessere Ergebnisse zu erweitern
- Ergebnisse werden mit
Symbol gekennzeichnet - Anwendbar auf anonyme und eingeloggte Benutzer
KI-Suche aktivieren
Voraussetzungen
Um die KI-Suche nutzen zu können, müssen Embeddings konfiguriert sein. Ein Large Language Model (LLM) ist optional erforderlich, wenn Sie HyDE (Hypothetical Document Embeddings) für eine verbesserte Suchqualität aktivieren.
Embeddings
Wenn Sie bei unserem Hosting sind, stellen wir eine Standardoption bereit. Für Self-Hosters folgen Sie der Anleitung unter Discourse AI - Embeddings
Large Language Model (LLM) (optional — für HyDE)
Ein LLM wird nur benötigt, wenn Sie die Einstellung ai_embeddings_semantic_search_use_hyde aktivieren, die ein LLM verwendet, um ein hypothetisches Dokument aus der Suchanfrage zu erstellen, bevor es eingebettet wird. Dies kann die Ergebnisqualität verbessern, führt aber zu zusätzlicher Latenz und Kosten.
Um loszulegen, können Sie diese über die Einstellungsseite Discourse AI - Large Language Model (LLM) settings page konfigurieren.
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock mit Anthropic-Zugriff
- Self-Hosting eines OpenSource LLM für DiscourseAI
- Google Gemini
Konfiguration
- Navigieren Sie zu
Admin→Plugins→Discourse AI→Features→Embeddings, um alle Einstellungen für die KI-Suche zu finden - Aktivieren Sie
ai_embeddings_enabledfür Embeddings - Aktivieren Sie
ai_embeddings_semantic_search_enabled, um die KI-Suche in der Vollseitensuche zu aktivieren - Aktivieren Sie optional
ai_embeddings_semantic_quick_search_enabled, um KI-Ergebnisse im Suchmenü-Popup hinzuzufügen - Aktivieren Sie optional
ai_embeddings_semantic_search_use_hyde, um HyDE für verbesserte Ergebnisse zu verwenden (erfordert ein LLM)
Technische FAQ
Für eine Übersicht der KI-Suchlogik (mit HyDE aktiviert) erweitern
mermaid height=255,auto
sequenceDiagram
User->>+Discourse: Suche nach „Gamification“
Discourse->>+LLM: Erstelle einen Artikel über „Gamification“ in einem Forum über<br> „Discourse, ein Open-Source-Internetforumsystem.“
LLM->>+Discourse: Gamification beinhaltet die Anwendung von Spieldesign-Elementen wie<br>Punkte, Abzeichen, Level und Bestenlisten auf Nicht-Spiel-Kontexte...
Discourse->>+EmbeddingsAPI: Generiere Embeddings für „Gamification beinhaltet die Anwendung von Spieldesign...“
EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
Discourse->>+PostgreSQL: Gib mir die nächsten Themen für [0.123, -0.321...]
PostgreSQL->>+Discourse: Themen: [1, 5, 10, 50]
Discourse->>+User: Themen: [1, 5, 10, 50]
Wie funktioniert die KI-Suche?
- Wenn HyDE aktiviert ist (
ai_embeddings_semantic_search_use_hyde), wird die Suchanfrage durch ein LLM geleitet, das einen hypothetischen Beitrag/Thema erstellt. Anschließend werden Embeddings aus diesem hypothetischen Beitrag generiert und verwendet, um auf Ihrer Website nach ähnlichen Übereinstimmungen zu suchen. Wenn HyDE deaktiviert ist (Standard), wird die Suchanfrage direkt eingebettet und für den Ähnlichkeitsabgleich verwendet. In beiden Fällen werden die Ergebnisse mit den regulären Suchergebnissen mithilfe von Reciprocal Rank Fusion (RRF) zusammengeführt, um die Top-Ergebnisse neu zu ordnen.
Wie werden Themen-/Beitragsdaten verarbeitet?
- Wenn HyDE aktiviert ist, werden LLM-Daten von einem Drittanbieter verarbeitet; Einzelheiten entnehmen Sie bitte Ihrem jeweiligen Anbieter. Standardmäßig wird der Embeddings-Microservice zusammen mit anderen Servern ausgeführt, auf denen Ihre vorhandenen Foren gehostet werden. Hier ist kein Drittanbieter beteiligt, und diese spezifischen Informationen verlassen niemals Ihr internes Netzwerk in unserem virtuellen privaten Rechenzentrum.
Wohin gehen die Daten?
- Wenn HyDE aktiviert ist, wird ein vom LLM-Anbieter erstellter hypothetischer Beitrag/Thema vorübergehend zusammen mit den Embeddings für dieses Dokument zwischengespeichert. Die Embedding-Daten werden in derselben Datenbank gespeichert, in der wir Ihre Themen, Beiträge und Benutzer speichern. Es ist eine weitere Datentabelle darin.
Wie sieht das „semantische Modell“ der Embeddings aus? Wie wurde es „trainiert“, und gibt es eine Möglichkeit zu testen, ob es genau auf die Themen in unseren „spezialisierten“ Communities angewendet werden kann?
- Standardmäßig verwenden wir vortrainierte Open-Source-Modelle, wie dieses hier. Wir haben es für viele Kunden eingesetzt und festgestellt, dass es sowohl für Nischen- als auch für allgemeine Communities gut funktioniert. Wenn die Leistung für Ihren Anwendungsfall nicht ausreicht, haben wir komplexere Modelle bereit, aber unserer Erfahrung nach ist die Standardoption eine solide Wahl.