Discourse Chatbot đŸ€–

Es funktioniert! Vielen Dank!

2 „GefĂ€llt mir“

Großartig!

Aber, aha, Ro-Bot hat gelogen (das ist eine EinschrÀnkung bei LLMs).

Ro-Bot konnte das nicht wissen, es sei denn, Sie fĂŒgen es in die Systemaufforderung ein, aber jede Abfrage kostet Sie Kontingent (bis Ihr Kontingent aufgebraucht ist).

2 „GefĂ€llt mir“

Gut zu wissen! LOL. Das sollte ich hinzufĂŒgen, falls jemand fragt. :smiley:

1 „GefĂ€llt mir“

Hallo zusammen,

@merefield Vielen Dank fĂŒr das fantastische Plugin und all deine harte Arbeit! Ich schĂ€tze deine BeitrĂ€ge sehr.

Ich suche nach Anleitungen, wie ich Embeddings und Prompts am besten nutzen kann. Derzeit funktioniert OpenAI gut mit gpt4o-mini, daher hoffe ich, dass es mit Embeddings genauso reibungslos funktioniert. Mein Plan ist, einen Begriff und einige Hintergrundinformationen zu erfinden und die KI dann danach zu fragen, um zu sehen, ob sie den erfundenen Begriff zurĂŒckgibt.

Eine Sache, die mir nicht ganz klar ist: Wenn Sie eine Kategorie fĂŒr die Indizierung einrichten, wird dann das gesamte Thema in den Prompt aufgenommen, wenn eine relevante Übereinstimmung gefunden wird, oder nur der spezifische Teil des Textes, der zur Erstellung des Embeddings verwendet wurde? Ich versuche zu entscheiden, ob es besser ist, kleinere, fokussiertere Themen oder lĂ€ngere, detailliertere Themen zu haben, insbesondere da die effiziente Token-Nutzung wichtig ist.

Ein weiterer Bereich, den ich untersuche, ist die Beziehung zwischen verschiedenen Prompt-Eingaben. Ich habe die Einstellung chatbot.prompt.system.basic.open und den versteckten Text, den man dem Bot zufĂŒhren kann, um seine Antworten zu gestalten, getestet. Ich weiß, dass sie auf irgendeine Weise zusammenarbeiten, aber ich bin mir nicht ganz sicher, wie. Wenn ich zum Beispiel Anweisungen wie „Du bist jemand, bitte tue A, B, C“ in den System-Prompt aufnehme, scheint dies weniger effektiv zu sein, als sie in den versteckten Text-Prompt aufzunehmen. Ich versuche, diese Konzepte besser zu verstehen und den besten Ansatz zu finden.

Vielen Dank im Voraus fĂŒr alle Einblicke, die Sie teilen können!

Hallo Brian,

Die Thema-Titel werden eingebettet und die BeitrÀge werden jeweils separat eingebettet.

Eine Anfrage kann gegen beides abgeglichen werden und die relevanten BeitrĂ€ge zurĂŒckgeben.

Sobald Sie Embeddings verwenden, sollten Sie auf die RAG-Bot-System-Prompts umsteigen.

Sie möchten chatbot.prompt.system.rag.open (fĂŒr öffentliche Antworten) und chatbot.prompt.system.rag.private fĂŒr private Antworten in PMs und DMs. Diese Unterscheidung wurde ursprĂŒnglich eingefĂŒhrt, damit Sie etwas anderes tun können, wenn Sie einen 1-zu-1-Support-Bot verwenden (wenn Sie möchten, aber Sie können sie identisch halten).

Meinen Sie mit verstecktem Text die zusÀtzlichen kategorieweisen Prompts?

Ich verwende das hauptsĂ€chlich, um neue Leute zu begrĂŒĂŸen, wenn sie in meiner EinfĂŒhrungs-Kategorie posten. Aber ich bin sicher, dass es darĂŒber hinaus kreative Anwendungen geben kann.

Dies wird etwas anders gehandhabt. Es wird als versteckter Benutzer-Prompt gepostet, anstatt als Teil des Bots, z. B.:

Geben Sie mir eine herzliche BegrĂŒĂŸung im Forum! Sagen Sie mir, dass alle hier sehr freundlich und hilfsbereit sind! Fordern Sie mich auf, das Willkommens-Thema zu lesen, falls ich dies noch nicht getan habe, hier: LINK und die Posting-Richtlinien hier: LINK

Daher ist es am besten, es in der Ich-Form zu schreiben.

Danke Robert, manchmal sind es die einfachen Dinge. Selbst nachdem ich gelesen hatte, dass ich den .rag-Prompt verwenden soll, habe ich immer wieder den einfachen .open verwendet.

Ich versuche immer noch zu verstehen, was fĂŒr Rag als Prompt an OpenAI ĂŒbermittelt wird. Ist es die gesamte Einbettung? Wenn ich also ein Thema erstelle, das ziemlich lang ist, wird dann der gesamte lange Prompt als Prompt ĂŒbermittelt? Mit anderen Worten, ist es tokenmĂ€ĂŸig gĂŒnstiger, 2 kurze, prĂ€zisere Themen zu erstellen als ein Thema mit allen Informationen? Ich versuche immer noch, den sinnvollsten Ansatz fĂŒr Effizienz zu finden.

Wenn Sie die Protokolleinstellungen Ă€ndern und Informationen an „Warnung“ umleiten (diese Einstellungen sind die allerletzten in den Plugin-Einstellungen), können Sie jeden Aufruf der API unter /logs lesen.

Denken Sie daran, sie zurĂŒckzuĂ€ndern, wenn Sie die Protokolle nicht verschmutzen möchten.

Hallo Robert.

Jedes Mal, wenn ich mich beim Chatbot anmelde, heißt es: „Hallo, wie kann ich Ihnen heute mit HappyBooks helfen?“ Ich möchte, dass der Chat nur antwortet, wenn ich ihn anschreibe.

Wie kann ich das tun?

1 „GefĂ€llt mir“

Hallo Willie

Wenn Sie die Quicklaunch-SchaltflÀche verwenden, wird diese immer zuerst gesprochen, es sei denn, Sie deaktivieren diese Einstellung:

1 „GefĂ€llt mir“

Und das ist ein HEULENDER Rechtschreibfehler (den ich beheben werde) :sweat_smile: :blush:

2 „GefĂ€llt mir“

Wie kann ich den Chatbot dazu bringen, nur Fragen zur Website zu beantworten und keine Fragen wie 5 + 5 = ?

Mithilfe einer Systemaufforderung, in der Sie solche Fragen absolut verweigern, mit Beispielen.

Aber viel GlĂŒck damit. Ich weiß nicht, wie gut andere LLMs solche Regeln befolgen, aber OpenAI-Modelle halten sich möglicherweise daran oder auch nicht. Selbst wenn sie hier, jetzt und fĂŒr Sie wie beabsichtigt funktionieren, wird die Situation in anderen BeitrĂ€gen, morgen und fĂŒr andere Benutzer wahrscheinlich genau umgekehrt sein.

2 „GefĂ€llt mir“

Ein alternativer Ansatz besteht einfach darin, den Zugriff ĂŒber das bereitgestellte Quotasystem zu verwalten. Wenn Benutzer 5 und 5 in einer PM addieren möchten, liegt das bei ihnen, aber sie verbrauchen dabei ihr Kontingent.

Auf jeden Fall glaube ich nicht, dass das viele Token verbrauchen wird :sweat_smile:

Öffentlich liegt es weiterhin an den Moderatoren, neu entstehende Inhalte auf der Website zu ĂŒberprĂŒfen, wie bei jedem neuen Beitrag.

Auf meinen eigenen Websites weise ich meinen Bot regelmĂ€ĂŸig an, alle möglichen Dinge zu tun, die vielleicht nicht zum Hauptthema der Websites gehören :joy: (wenn auch privat und innerhalb meines Kontingents).

1 „GefĂ€llt mir“

5+5=10

Das ist automatisch durch iOS passiert :joy: (und ist manchmal wirklich nervig).

Wenn das von einem OpenAI-Chatbot gezÀhlt worden wÀre, hÀtte es praktisch nichts gekostet.

2 „GefĂ€llt mir“

Hallo @merefield, ist es zufĂ€llig fĂŒr Perplexity konfiguriert, da es auch das GPT-Modell verwendet?

Wenn Sie vielleicht einen Proxy finden können. Aber ohne all den Unsinn nur OpenAI.

Ich bin nur ein einzelner Entwickler und musste den Umfang vernĂŒnftig halten.

1 „GefĂ€llt mir“

Sicher, ich werde es versuchen und Sie ĂŒber die Ergebnisse auf dem Laufenden halten.

Hallo @merefield, ich habe festgestellt, dass die KI die Anweisungen nicht gut befolgt hat. Es sieht so aus, als ob sie in den Protokollen abgeschnitten wird.

Die vollstĂ€ndige Eingabeaufforderung, die ich in der Systemaufforderung gespeichert habe, ist unten aufgefĂŒhrt. Dies wurde nur als Testaufforderung ausgewĂ€hlt.

Comedian Chatbot Persona Prompt. Du bist ein Comedian-Chatbot, ein virtueller Entertainer, der darauf ausgelegt ist, jeder Konversation Lachen und Freude zu bringen. Dein Ton ist leichtfĂŒĂŸig, witzig und fesselnd, mit einem GespĂŒr fĂŒr komödiantisches Timing und einem Repertoire, das eine breite Palette von Humorstilen umfasst. Deine Rolle ist es, der Mittelpunkt der digitalen Party zu sein, clevere Beobachtungen zu machen, Pointen zu liefern und deinen Humor an den Kontext und die Vorlieben deines Publikums anzupassen.

Zeigt das Protokoll nur eine Zeile an oder werden meine Eingabeaufforderungen abgeschnitten?

Ich habe keine Einstellung gefunden und bisher keine Probleme mit Limits bei OpenAI gehabt.

Danke! Brian

Ich habe den Chatbot gestern Abend deaktiviert, weil die „erste Antwort“ die Kategorieaufforderung wirklich schlecht befolgt hat. Fast gar nicht. Ich habe ĂŒberlegt, eine PM zu senden, wenn ich etwas Robusteres weiß, aber hier sind wir. Und auch die normalere Konversation war in Bezug auf die Befolgung der Systemaufforderung nicht gerade großartig.

Ja, die Schnittstelle kĂŒrzt die Ausgabe.

Sie sollten das Ganze aber immer noch in der Datei production.log am ĂŒblichen Ort finden können.

( tail shared/standalone/log/rails/production.log aus dem Discourse-Verzeichnis)

1 „GefĂ€llt mir“