Die KI-Triage wurde entwickelt, um die Verwaltung und Moderation von Forumsbeiträgen zu verbessern, indem der Klassifizierungsprozess von Beiträgen automatisiert wird.
Bitte beachten Sie, dass diese Funktion sowohl das Plugin discourse-automation als auch discourse-ai für die Funktionsweise erfordert.
Anwendungsfälle
-
Automatische Beitragskategorisierung: Die KI-Triage kann Themen automatisch basierend auf ihrem Inhalt kategorisieren. Dies ist besonders vorteilhaft für große Foren, bei denen die manuelle Kategorisierung zeitaufwendig sein kann. Sie können die Regeln auf eine Teilmenge von Themen anwenden (nur das erste Thema oder Themen, die in bestimmten Kategorien gepostet wurden)
-
Beitragskennzeichnung (Tagging): Die KI-Triage kann Beiträgen bestimmte Tags zuweisen. Diese Funktion hilft bei der besseren Organisation von Beiträgen und macht die Suche und das Abrufen von Themen effizienter.
-
Automatisierte Antworten: Die KI-Triage kann Antworten auf Beiträge mithilfe vordefinierter Antworten generieren. Dies ist nützlich für die Beantwortung häufig gestellter Fragen oder allgemeiner Anfragen, das Verschieben von Spam in Junk-Kategorien und mehr.
-
Themenverbergen: Die KI-Triage kann Themen basierend auf bestimmten Kriterien verbergen. Dies kann zur Verwaltung von Spam oder unangemessenen Inhalten verwendet werden.
-
Erkennung von NSFW/Toxizität/Spam
Funktionsweise
Die KI-Triage verwendet KI-Modelle, um den Inhalt der Beiträge zu analysieren. Basierend auf dieser Analyse führt sie die angegebenen Aktionen aus, wenn das Modell einen bestimmten Text zurückgibt. Zu diesen Aktionen gehören das Verschieben des Beitrags in eine angegebene Kategorie, das Hinzufügen von Tags, das Antworten mit einer vordefinierten Antwort und das Verbergen des Themas.
Konfiguration
Das Feld „System-Prompt“ wurde zugunsten von Agents (Agenten) eingestellt. Wenn Sie vor dieser Änderung eine KI-Automatisierung hatten, wird automatisch ein neuer Agent mit dem zugehörigen System-Prompt erstellt.
Um die KI-Triage zu konfigurieren, müssen Sie bestimmte Parameter angeben:
- Agent: Der zur Triage verwendete Agent. Stellen Sie sicher, dass er mit einem einzelnen Wort antwortet, mit dem Sie die unten aufgeführten Aktionen auslösen können.
- Text suchen: Wenn der folgende Text in der LLM-Antwort erscheint, wenden Sie die folgenden Aktionen an.
- Maximale Beitrags-Tokens: Die maximale Anzahl von Tokens, die bei der LLM-Triage gescannt werden sollen.
- Stoppsequenzen: Weisen Sie das Modell an, die Token-Generierung zu beenden, wenn es einen dieser Werte erreicht.
- Maximale Ausgabe-Tokens: Wenn angegeben, wird eine Obergrenze für die maximale Anzahl von Tokens festgelegt, die das Modell generieren kann.
- Private Nachrichten einschließen: Private Nachrichten ebenfalls scannen und triagieren.
- Kategorie: Dies ist die Kategorie, in die der Beitrag verschoben wird, wenn der angegebene Text gefunden wird.
- Tags: Dies sind die Tags, die dem Beitrag hinzugefügt werden, wenn der angegebene Text gefunden wird.
- Thema verbergen: Wenn diese Option aktiviert ist, wird das Thema verborgen, wenn der angegebene Text gefunden wird.
- Beitrag flaggen: Wenn dies aktiviert ist, wird der Beitrag zur Überprüfungswarteschlange für Moderatoren, Mitarbeiter und Administratoren zur Aktion markiert.
- Flag-Typ: Die Art des anzuwendenden Flags. Optionen umfassen:
- Beitrag zur Überprüfungswarteschlange hinzufügen — sendet nur an die Überprüfungswarteschlange
- Beitrag zur Überprüfungswarteschlange hinzufügen und Beitrag verbergen — sendet an die Überprüfungswarteschlange und verbirgt den Beitrag
- Beitrag zur Überprüfungswarteschlange hinzufügen und Beitrag löschen — sendet an die Überprüfungswarteschlange und löscht den Beitrag weich (soft-deletes)
- Beitrag zur Überprüfungswarteschlange hinzufügen, Beitrag löschen und Benutzer stummschalten — sendet an die Überprüfungswarteschlange, löscht den Beitrag weich und stummschaltet den Benutzer
- Als Spam markieren und Beitrag verbergen — markiert als Spam und verbirgt
- Als Spam markieren, Beitrag verbergen und Benutzer stummschalten — markiert als Spam, verbirgt und stummschaltet den Benutzer
- Antwortender Benutzer: Dies ist der Benutzer, der in der vorgefertigten Antwort erwähnt wird.
- Antwort: Dies ist die vordefinierte Antwort, die gepostet wird, wenn der angegebene Text gefunden wird.
- Antwort-Agent: KI-Agent, der für Antworten verwendet wird. Muss Standard LLM haben, wird gegenüber der vorgefertigten Antwort bevorzugt. Antwortet bedingt anders als Discourse AI - AI triage using Agent.
- Als Flüstern antworten: Ob die Antwort der KI als Flüstern erscheinen soll.
- Autor per PN benachrichtigen: Sendet eine private Nachricht an den Beitragsautor, wenn dessen Beitrag in die Warteschlange gestellt und gelöscht wird.
- PN-Absender: Der Benutzer, der die PN sendet (standardmäßig das System).
- PN-Inhalt: Optionale benutzerdefinierte Nachricht, die an den Autor gesendet werden soll.
Einschränkungen
- LLM-Aufrufe können teuer sein. Wenn Sie einen Klassifikator anwenden, achten Sie sorgfältig auf die Kosten und ziehen Sie immer in Betracht, diesen nur auf kleinen Teilmengen auszuführen.
- Der konkrete Anwendungsfall, den wir getestet haben (und für einen Kunden in Produktion ausführen), ist die Klassifizierung der ersten Themen eines Benutzers.
- Wir empfehlen Ihnen, den KI-Bot zu verwenden, um den System-Prompt des Agenten zu erstellen.









