Semantische Suche zum KI-Bot hinzufügen

Ich habe mit dem Bot gespielt und er ist schon großartig. Kann ich eine Stimme hinzufügen, um die semantische Suche zu ermöglichen? In meinen bisherigen Experimenten würde dies den Bot zumindest auf unserer Website viel intelligenter machen. Wenn ich die Ergebnisse vergleiche, die er findet und zusammenfasst oder beantwortet, sind diese viel schlechter als die, die er verwenden würde, wenn er eine semantische Suche durchführen würde.

In diesem Zusammenhang ist es möglich, die semantische Suche als Standard zu aktivieren, wenn ich / verwende? Auch hier denke ich, dass die meisten unserer Benutzer die Ergebnisse bevorzugen würden. Wir haben viele Beiträge vom Typ Wissensdatenbank, die nicht immer die Schlüsselwörter verwenden, die die Leute tatsächlich sagen/suchen würden, aber semantisch verwandt sind. Das bedeutet, dass eine herkömmliche Suche dazu neigt, qualitativ minderwertigere Beiträge hervorzubringen, bei denen Leute informell über Probleme diskutieren und nicht die kanonische Antwort auf die Frage haben, die sie haben.

2 „Gefällt mir“

Können Sie einige Beispiel-Prompts/Fragen teilen?

Ich denke auch, dass der KI-Bot von großem Nutzen für Websites ist, aber meine Ideen für Prompts/Fragen sind nicht unbedingt die anderer und suche daher nach anderen Prompts/Fragen für mögliche Demonstrationszwecke.

2 „Gefällt mir“

Ehrlich gesagt, selbst wenn Sie die aktuelle semantische Suche als Teil des Bot-Workflows verwenden würden, wäre das großartig. Sie funktioniert jetzt gut, hat aber einfach nicht den richtigen Info-Kontext, selbst wenn die aktuelle semantische Suche sie finden würde.

Es wäre großartig, Kontrolle über die Prompts zu haben, aber ich sehe, dass die Benutzeroberfläche auch dort schwierig ist, weil es einfach ist, Dinge mit dem falschen Prompt zu beschädigen. Ich denke, die Einführung des Konzepts einer Persona für den Bot, die als System-Prompt eingegeben wird, könnte dort ein schöner Einstieg sein.

1 „Gefällt mir“

Absolut, das ist etwas, das ich wirklich möchte. Tatsächlich möchte ich, dass Forum-Administratoren benutzerdefinierte Personas mit benutzerdefinierten Befehlssätzen erstellen können.

6 „Gefällt mir“

Ich kann mir wirklich vorstellen, dass die Optimierung von Prompts für uns nützlich ist, obwohl ich nach einigen Amateur-„Prompt-Engineering“-Erfahrungen für ein anderes Projekt kürzlich festgestellt habe, dass es etwas Anleitung und viele Beispiele für Personen erfordert, die damit nicht vertraut sind. Die Benutzeroberfläche würde wahrscheinlich von einer Reihe von Beispielen/Standardauswahlen profitieren, wie z. B. „gesprächig/lustig“, „neutral/genau“ bis hin zu „buchartig/nerdig“, um zu zeigen, wie die Formulierungen der Persona die Antwort verändern können.

Ich habe auch festgestellt, dass es aufgrund der inhärenten Zufälligkeit der Modelle schwierig sein kann, die Auswirkungen von Änderungen der Prompt-Formulierung einzuschätzen, und auch, weil die Auswirkungen je nach Thema des Prompts variieren können. Es wäre schön, eine standardisierte Testsuite von Benutzereingaben zu entwickeln und diese zu verwenden, um einen Trockenlauf zu simulieren, wie sich Änderungen der Persona oder der Anweisungen auf die Bot-Ausgaben auswirken würden. Ich schätze, das wäre auch für Ihr Team nützlich … obwohl man, sobald der Testdatensatz groß wird, das Problem hat, wie man ihn auswertet, ohne viel Zeit zu investieren.

Eine weitere Dimension, die Benutzer meiner Meinung nach oft anpassen möchten, ist, wie streng die LLM an das im Prompt bereitgestellte Quellmaterial gebunden ist. In meinen Tests muss man recht explizit (und wiederholend) Anweisungen geben, dass das Modell keine Kenntnisse außerhalb des Kontexts importieren soll, und klarstellen (weitere Anweisungen), dass man lieber keine Antwort als schlechte Antworten hätte. Man kann auch den Grad steuern, zu dem das Modell seine „Arbeitsschritte“ zeigt und Quellen angibt/Beispiele liefert. Ich denke, das ist oft ein guter Weg, Halluzinationen/Bullshit-Antworten zu vermeiden, wenn der Kontext nicht die tatsächliche Antwort oder relevantes Material enthält.

Ein letzter Kommentar … Ich sehe hier, dass Sie sich Sorgen um die Kosten und die sparsame Verwendung von Tokens gemacht haben, was für sehr große Websites wahrscheinlich sinnvoll ist. Für kleinere oder höherwertige Anwendungen (z. B. Kundensupport) denke ich jedoch nicht, dass dies ein großes Problem wäre, und dies wird im Laufe der Zeit nur noch weiter abnehmen. Die Kosten für zusätzliche Abfragen an separate Klassifikatoren, die die Antwort auf Plausibilität prüfen oder benutzerdefinierte „Leitplanken“ implementieren, wären für uns definitiv lohnenswert. Zum Beispiel haben wir festgestellt, dass Prompts wie „enthält diese Antwort Informationen, die nicht in diesen Quellen zu finden sind“ recht aufschlussreich sind und definitiv vor der Präsentation von Informationen für die Benutzer ausgeführt werden sollten. GPT 3.5 ist für diese Art von Aufgabe definitiv in Ordnung, auch wenn die Hauptaufgabe mit GPT4 ausgeführt wird.

3 „Gefällt mir“