Dieser Leitfaden erklärt, wie die KI-Suchfunktion aktiviert und konfiguriert wird, die Teil des Discourse AI-Plugins ist.
Erforderliche Benutzerebene: Administrator
Ähnlich wie bei Verwandte Themen hilft Ihnen die KI-Suche, die relevantesten Themen mithilfe semantischer Textähnlichkeit zu finden, die über eine exakte Schlüsselwortübereinstimmung hinausgehen, die von herkömmlichen Suchmaschinen verwendet wird. Dies führt zur Entdeckung von Themen, die keine exakten Übereinstimmungen sind, aber dennoch für die ursprüngliche Suche relevant sind. Wenn Sie nicht finden, wonach Sie suchen, ist die KI-Suche da, um zu helfen!
Funktionen
- Semantische Textähnlichkeit: Geht über eine reine Schlüsselwortübereinstimmung hinaus und verwendet semantische Analyse, um Textähnlichkeit zu finden
- KI-Schnellsuche
- KI-Suche in der Vollbildsuche ein-/ausschaltbar
- Ergebnisse gekennzeichnet durch
-Symbol - Anwendbar für anonyme und angemeldete Benutzer
KI-Suche aktivieren
Voraussetzungen
Um die KI-Suche nutzen zu können, benötigen Sie Embeddings und ein Large Language Model (LLM).
Embeddings
Wenn Sie unser Hosting nutzen, stellen wir eine Standardoption zur Verfügung. Für Self-Hosters folgen Sie der Anleitung unter Discourse AI - Embeddings.
Large Language Model (LLM)
Discourse-Hosting-Kunden und Self-Hosters müssen mindestens ein Large Language Model (LLM) von einem Anbieter konfigurieren.
Um loszulegen, können Sie sie über die Discourse AI - Large Language Model (LLM) Einstellungen konfigurieren.
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock mit Anthropic-Zugang
- HuggingFace Endpoints mit Llama2-ähnlichem Modell
- Self-Hosting eines OpenSource LLM für DiscourseAI
- Google Gemini
Konfiguration
- Gehen Sie zu den Einstellungen
Admin→Plugins→ suchen oder finden Siediscourse-aiund stellen Sie sicher, dass es aktiviert ist. - Aktivieren Sie
ai_embeddings_enabledfür Embeddings. - Aktivieren Sie
ai_embeddings_semantic_search_enabled, um die KI-Suche zu aktivieren.
Technische FAQ
Erweitern für eine Übersicht über die KI-Suchlogik
mermaid height=255,auto
sequenceDiagram
Benutzer->>+Discourse: Suche nach "Gamification"
Discourse->>+LLM: Erstelle einen Artikel über "Gamification" in einem Forum über
"Discourse, ein Open-Source-Internet-Forum-System."
LLM->>+Discourse: Gamification beinhaltet die Anwendung von Spielelementen wie
Punkte, Abzeichen, Level und Ranglisten in Nicht-Spiel-Kontexten...
Discourse->>+EmbeddingsAPI: Erstelle Embeddings für "Gamification beinhaltet die Anwendung von Spielelementen..."
EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
Discourse->>+PostgreSQL: Gib mir die nächsten Themen für [0.123, -0.321...]
PostgreSQL->>+Discourse: Themen: [1, 5, 10, 50]
Discourse->>+Benutzer: Themen: [1, 5, 10, 50]
Wie funktioniert die KI-Suche?
- Die anfängliche Suchanfrage wird über ein LLM ausgeführt, das einen hypothetischen Beitrag/Thema erstellt. Anschließend werden Embeddings für diesen Beitrag erstellt und dann werden auf Ihrer Website nach ähnlichen Übereinstimmungen mit der Suchanfrage gesucht. Schließlich wird Reciprocal Rank Fusion (RFF) verwendet, um die Top-Ergebnisse im Einklang mit der regulären Suche neu zu ordnen.
Wie werden Themen-/Beitragsdaten verarbeitet?
- LLM-Daten werden von einem Drittanbieter verarbeitet. Weitere Details finden Sie bei Ihrem spezifischen Anbieter. Standardmäßig wird der Embeddings-Mikrodienst zusammen mit anderen Servern ausgeführt, die Ihre vorhandenen Foren hosten. Hier ist keine Drittpartei beteiligt, und diese spezifischen Informationen verlassen Ihr internes Netzwerk in unserem virtuellen privaten Rechenzentrum nicht.
Wohin gehen die Daten?
- Ein hypothetischer Beitrag/Thema, der vom LLM-Anbieter erstellt wurde, wird zusammen mit den Embeddings für dieses Dokument temporär zwischengespeichert. Embeddings-Daten werden in derselben Datenbank gespeichert, in der wir Ihre Themen, Beiträge und Benutzer speichern. Es ist eine weitere Datentabelle dort.
Wie sieht das “semantische Modell” der Embeddings aus? Wie wurde es “trainiert”, und gibt es eine Möglichkeit zu testen, ob es genau auf die Themen unserer “spezialisierten” Communities angewendet werden kann?
- Standardmäßig verwenden wir vortrainierte Open-Source-Modelle, wie dieses hier. Wir haben es bei vielen Kunden eingesetzt und festgestellt, dass es sowohl für Nischen- als auch für allgemeine Communities gut funktioniert. Wenn die Leistung für Ihren Anwendungsfall nicht ausreicht, haben wir komplexere Modelle zur Verfügung, aber unserer Erfahrung nach ist die Standardoption eine solide Wahl.