Derzeit können Sie über das Discourse Automation-Plugin Antworten auf Themen basierend auf erkannten Schlüsselwörtern generieren. Diese Option ist als Teil des Auto Responder-Skripts verfügbar und kann über die Option Liste der Wort/Antwort-Paare konfiguriert werden. Außerdem können Sie KI-Triage verwenden, um vorgefertigte Antworten zu Themen basierend auf LLM-Aufforderungen, deren Ergebnissen und Post-Kontext bereitzustellen.
Die hier vorgestellte Funktionsidee ist, einen KI-Spin zu verwenden, bei dem ein LLM decodiert, was geschrieben wurde, durch anpassbare Prompts anstelle von Schlüsselwörtern. Das LLM kann dann intelligent antworten, anstatt nur vorgefertigte Antworten zu verwenden.
Ich bin gespannt zu hören, ob andere an so etwas interessiert sind und wofür Sie es verwenden würden. Beispielhafte Anwendungsfälle sind immer sehr willkommen!
Absolut! Es gibt unzählige Anwendungsfälle dafür. Denken Sie an einen einfachen Support-Bot: Der Nutzer postet in der Kategorie „Hilfe“, weil er nicht weiß, wie man eine Funktion in Discourse nutzt. Dann kann es eine festgelegte Persona geben, die automatisch auf jedes neue Thema in dieser Kategorie antwortet. In Kombination mit RAG, Tools und detailliertem Prompt-Engineering können Sie ziemlich kreativ werden.
Hypothetisch könnte jede Kategorie ihren eigenen „Kategorien-Experten-Bot“ haben.
Nun, das, das ich verlinkt habe, tut genau das. Und so habe ich es verwendet (letzter Satz, weil ich den Ansatz geändert habe, nicht weil es fehlgeschlagen ist)
Die Idee ist, dass Sie ein Tool für die Triage auswählen können, das wiederum Themen erstellen, Dinge mögen und tun kann, was immer Sie wollen. Ich hoffe, bald weiter daran zu arbeiten.
[Zitat=“EricGT, Beitrag:2, Thema:355293, Vollansicht:ja, Benutzername:EricGT”]
kannst du ein paar Beispiele dafür geben, wie das funktioniert, entweder hier als Text oder Links zu echten Anwendungen. Danke.
[/Zitat]
Dies wurde intern als Anfrage eingereicht, daher erkunden wir die Idee basierend auf Community-Beispielen und Anwendungsfällen, an denen Sam jetzt arbeitet.
Ein Beispiel für mich wäre, Nutzer dazu zu bringen, im richtigen Bereich zu posten. Das heißt, wenn ein Thema wie ein Missverhältnis mit der Kategorie erscheint, stattdessen diese Änderung nicht automatisch vorzunehmen, sondern vielleicht im Thema zu antworten und andere Kategorien vorzuschlagen.
Unser Anwendungsfall hierfür ist, dass wenn ein Benutzer in unserem Discourse eine Frage stellt, wir möchten, dass KI unser trainiertes Modell nutzt, um eine erste Antwort auf den ersten Beitrag zu geben. Wir versuchen, dem Benutzer eine schnelle, fundierte Antwort mit KI zu geben, und folgen bei Bedarf nach.
Ich liebe die Idee, für jede Kategorie einen KI-Kategorieexperten zu haben.
Wir werden morgen an der Dokumentation arbeiten. Wir haben, was ich als Modus 1 und 2 bezeichnen würde, implementiert:
Ultra-trivial, Ziel auswählen und bedingungslos antworten (Kategorie / Tag / PM-Gruppe usw.)
Triage + Responder, mit dem Sie eine Triage durchführen und dann dynamisch mit LLM-Triage antworten können
Ich habe auch (3) den mega-sophisticated-Modus implementiert – der noch in Arbeit ist und vorerst deaktiviert ist.
Triage mit KI-Tool
Dies ist unvollendet, aber wenn es fertig ist, wird es einige sehr ausgefallene Dinge ermöglichen, wie z. B. die Triage mit einem LLM und dann die Weiterleitung an die richtige Persona und andere extrem komplizierte Dinge.
Persönlich gefällt mir die Idee der automatischen Antworten nicht, da die Gefahr besteht, unsere Nutzer zu sehr zu verärgern (aber vielleicht sind wir mit einer guten Antwortrate auf unsere neuen Themen von unseren Nutzern verwöhnt).
Am besten gefällt mir jedoch dieser Anwendungsfall:
Wir haben so etwas tatsächlich seit Jahren mit einer API automatisiert, bei der wir nach 24 Stunden ohne Antwort auf ein Thema mit einer vorgefertigten Antwort antworten. Die Möglichkeit, diese vorgefertigte Antwort mit LLMs zu erweitern, wäre fantastisch (solange es einen Schalter gibt, um bedingt nur auf unbeantwortete Themen nach x Stunden zu antworten).
Flüstern (was ein von uns unterstützter Modus ist) ist eine Möglichkeit, dieses Problem zu umgehen, nutze es, um Moderatoren zu unterstützen.
Ich denke auch, dass einige elegante Abläufe hier viel Risiko verringern können (das wird auf die Werkzeuge warten müssen)
Eine Antwort verfassen
Das LLM bitten, einzuschätzen, wie viel Wert die Antwort ausmacht, von 1 bis 10
Wenn 8 oder höher, Antwort posten
Ich liebe diese Idee, es wird einen neuen Typ von Automatisierungs-Trigger erfordern, darüber nachdenken wir noch. Dieser “Trigger für Themen in Kategorie X, die nach einem Tag keine Antwort erhalten haben - alle 10 Minuten prüfen” ist kein Trigger, den wir derzeit haben… wir müssen herausfinden, wie wir ihn in die Automatisierung integrieren können.
Wir haben einen “steckengebliebenes Thema”-Trigger, aber ich glaube nicht, dass dieser die Fähigkeit hat, bei “Antwort vorhanden” zu “umgehen”, wir könnten ihn erweitern.
Zusätzlich für API-Integrationen wäre eine “antworten Sie nur dieses Thema mit dieser Persona”-Aktion ziemlich erstaunlich und sehr einfach zu implementieren.