Discourse AI - KI-Bot


KI-Plugin-Einstellungen, Persona-Konfiguration

Hey, Sie können Ihr eigenes benutzerdefiniertes LLM mit deren aktuellem Endpunkt, api_key und durch Anpassen des Modells mit Ihren Optionen und Parametern einrichten.

Die anfängliche Liste muss wahrscheinlich aktualisiert werden und könnte für neue Benutzer intuitiver sein, aber Sie können sicher tun, was Sie wollen.

Hmm, ich habe mehrere LLMs konfiguriert und versuche, so viele wie möglich auf 2.5 Flash zu bekommen.

Ich sehe keine Möglichkeit, den Helper und den AI-Bot dem Gemini Flash 2.5 LLM zuzuweisen. Meinst du, ich muss das zugewiesene LLM (Gemini 1.5 Flash) bearbeiten und den Schlüssel/die Endpunkte usw. ändern, um 2.5 Flash zu verwenden?

Es ist unter den Personas

Danke, ja, ich bin an diesen Punkt gelangt. Ich sehe, dass einige Personen nur eine Option haben, aber seltsamerweise sind diese für alle Personas ausgegraut. Ich sehe auch keine konfigurierten Tools unter Discourse AI → Tools.

Gibt es eine Anleitung, wie man das einrichtet?

Ja, Sie können jetzt hier beginnen:

2 „Gefällt mir“

Danke, ja, ich habe sie bereits durchgesehen (und zurückgepostet) und sie erneut auf Updates überprüft. Ich kann nichts finden, das sich auf meine obigen Fragen bezieht, insbesondere:\n1. Wie richte ich den KI-Bot so ein, dass er automatisch auf Beiträge des OP und aller Benutzer antwortet? Soweit ich weiß, muss ich das „read“-Tool zur Persona-Konfiguration hinzufügen (ich gehe davon aus, die KI-Helfer-Persona), aber dann gibt es kein Tool namens „read“ und die Option für aktivierte Tools ist ausgegraut. Ich kann keine Informationen dazu in den obigen Links finden.\n2. Wie konfiguriere ich den KI-Bot so, dass er das Gemini 2.5 Flash-Modell verwendet? Es gibt keine spezifische Option, um ein Modell für den KI-Bot zuzuweisen, wie es bei den Personas der Fall ist. Muss ich einfach das aktuell zugewiesene Modell für den KI-Bot bearbeiten und es 2.5 Flash verwenden lassen?\n\nVielen Dank im Voraus

Vielleicht hilft Ihnen das weiter

1 „Gefällt mir“

Perfekt, das war es, was ich brauchte, aber ich werde meine Fragen oben beantworten, damit andere, die gerade erst anfangen, sie nachschlagen können.

Aktivieren Sie zuerst das Automatisierungs-Plugin und erstellen Sie dann eine Automatisierung mit der oben von Moin bereitgestellten Anleitung zur KI-Triage. Beachten Sie, dass Sie bei der Verwendung der integrierten Personas wie Forum Helper die Einstellungen für Aktivierte Tools und Erzwungene Tools NICHT ändern können. Wenn Sie diese Einstellungen anpassen möchten, müssen Sie eine neue/benutzerdefinierte Persona erstellen. Was die Tools betrifft, read usw., handelt es sich um integrierte Tools, und Sie müssen keine benutzerdefinierten Tools erstellen, um darauf zuzugreifen. Sie sind jedoch nur über benutzerdefinierte Personas verfügbar (integrierte Personas haben die Optionen ausgegraut).

Ich habe festgestellt, dass der KI-Bot und der Helfer zwei spezielle Agenten sind, die ihre eigenen zugewiesenen LLM-Modelle haben. Wenn ich ändern muss, welches LLM sie verwenden, muss ich in ihre zugewiesenen LLMs gehen und die Konfiguration direkt in ihren jeweiligen Konfigurationen aktualisieren. Ich kann kein benutzerdefiniertes LLM-Modell erstellen und dann diese beiden Agenten neu zuweisen, damit sie es verwenden, wie man es mit Personas tun kann.

1 „Gefällt mir“

7 Beiträge wurden in ein neues Thema aufgeteilt: Steuerung von KI-Antworten in Forendiskussionen

Eine großartige Funktion wäre die Möglichkeit, das Dropdown-Menü des Bots individuell zu gestalten, um Anbieterlogos und Untertitel für modellspezifische Parameter einzufügen. Beispiel:

„(Anbieterlogo) Modellname
256k Kontext | 3B Parameter

Hallo!

Ich probiere den KI-Bot in unserem Forum aus. Ist es möglich, das, was der KI-Bot lesen kann, einzuschränken? Er ist automatisch in allen Gruppen und ich kann das anscheinend nicht ändern. Die Frage kam auf, weil es Bedenken gibt, dass er die privaten Nachrichten von Benutzern lesen kann. Ich bin mir nicht sicher, ob er das überhaupt kann. Danke!

David