Discourse AI sieht fantastisch aus und ich bin sehr daran interessiert, es auf meiner selbst gehosteten Instanz einzurichten!
Eine Frage, die ich habe (oder vielleicht eine Funktionsanfrage) bezüglich des Helfer-Bots und der Embeddings ist: Kann ich auswählen, welche Themen für die Retrieval Augmented Generation (RAG) verwendet werden? Zum Beispiel wäre es fantastisch, wenn ich das Plugin so konfigurieren könnte, dass es nur für Themen in meinen offiziellen Dokumentationskategorien Embeddings berechnet. Ich befürchte, dass die Ausgabe nicht gut genug sein wird, wenn der Bot eine Vektordatenbank mit allem aus unserem Forum aufbaut. Es wäre auch interessant, es so zu konfigurieren, dass es nur für Themen mit bestimmten Tags oder gelösten Themen Embeddings berechnet. Ich bin neugierig auf die Details des RAG-Workflows. Hat Discourse AI einen RAG-Workflow? Werden wir die Möglichkeit haben zu kontrollieren, welche Dokumente in die Vektordatenbank aufgenommen werden? Wenn wir bereits eine Sammlung von Embeddings haben, können wir Discourse AI so konfigurieren, dass es diese bei Aufrufen des Helfers oder der semantischen Suche verwendet?
Ich habe dies hier kurz erwähnt gesehen, aber ich würde gerne mehr Details erfahren!
Die Feature-Anfrage hier ist also, Ihnen zu erlauben, zusätzliche Parameter für verschiedene Befehle anzugeben, die Sie hinzufügen. Das gefällt mir sehr gut, ich muss nur noch über die Benutzeroberfläche und die Datenstrukturen nachdenken.
Soweit ich weiß, erstellt das Discourse AI Plugin nur eine Vektordatenbank mit allen Beiträgen im Forum, aber dieser Ansatz wird verfeinert, um Benutzern die Angabe zu ermöglichen, welche Dokumente enthalten sein sollen. Dies ermöglicht eine granularere Kontrolle über die Trainingsdaten und verbessert die Qualität der generierten Antworten.
Darüber hinaus wird die Möglichkeit, vorab berechnete Embeddings einzubeziehen, noch erforscht…