Um bestimmte Discourse AI-Funktionen nutzen zu können, müssen Benutzer einen Anbieter für ein großes Sprachmodell (Large Language Model, LLM) verwenden. Bitte sehen Sie sich jede KI-Funktion an, um festzustellen, welche LLMs kompatibel sind.
Wenn die Kosten ein wesentliches Anliegen sind, verfügt Discourse AI über mehrere integrierte Tools, die Ihnen bei der Verwaltung der Ausgaben helfen:
- AI Usage dashboard — Verfolgen Sie den Token-Verbrauch pro Funktion, Modell und Benutzer mit geschätzten Kosten
- Usage quotas — Legen Sie gruppenweise Limits pro Modell für Tokens oder Anforderungszahlen innerhalb konfigurierbarer Zeitfenster (stündlich, täglich, wöchentlich) fest
- Credit allocations — Legen Sie allgemeine Kreditbudgets pro Modell mit weichen und harten Limits fest
- Vendor-side budgets — Legen Sie Nutzungslimits direkt beim Anbieter fest als zusätzliche Sicherheitsmaßnahme
- Group restrictions — Erlauben Sie nur ausgewählten Benutzern und Gruppen den Zugriff auf die KI-Funktionen
Es gibt mehrere veränderliche Faktoren, die bei der Berechnung der Kosten für die Nutzung von LLMs zu berücksichtigen sind
Eine vereinfachte Ansicht wäre…
Wichtig ist zu verstehen, was Tokens sind und wie man sie zählt
- LLM-Modell und Preisgestaltung → Identifizierung des spezifischen LLM-Modells, das Sie verwenden möchten, und Ermittlung seiner neuesten Preisdetails für Eingabe- und Ausgabetokens
- Eingabetokens → Die durchschnittliche Länge Ihrer Eingabeaufforderungen in Tokens
- Ausgabetoken → Die Antworten des Modells in Tokens
Schauen wir uns nun das Beispiel der Nutzung des KI-Bots hier auf Meta an
Es wurden viele Vereinfachungen bei dieser Berechnung vorgenommen, wie z. B. der Token-Verbrauch, die Benutzer, die den KI-Bot verwenden, und die durchschnittliche Anzahl von Anfragen. Diese Zahlen sollten nur als allgemeine Richtlinien betrachtet werden. Besonders da wir mit dem KI-Bot viel experimentieren.
-
Verwenden Sie das integrierte AI Usage dashboard unter
/admin/plugins/discourse-ai/ai-usage, um Ihre tatsächliche Anfrage-/Antwort-Token-Nutzung zu überprüfen, aufgeschlüsselt nach Funktion, Modell und Benutzer -
Im Durchschnitt waren Antwort-Tokens 3- bis 5-mal größer als Anfrage-Tokens [1]
-
Gehen Sie von einem durchschnittlichen Benutzeranfrage-Token von 85 aus, was weniger als einem Absatz entspricht [2]
-
Gehen Sie von einem durchschnittlichen Antwort-Token von 85 x 4 = 340 Tokens aus, was etwa 3 Absätzen entspricht
-
Unter Verwendung von GPT-5.4 mini von OpenAI betragen die Kosten für Eingabe-Tokens $0.75 / 1M Tokens = $0.00000075 / Token x 85 Tokens = $0.000064 für die Eingabe
-
Für Ausgabe-Tokens wären es $4.50 / 1M Tokens = $0.0000045 / Token x 340 Tokens = $0.00153 für die Ausgabe
-
Die Gesamtkosten pro Anfrage betragen $0.000064 + $0.00153 = $0.0016
-
Im Februar 2024 nutzten etwa 600 Benutzer den KI-Bot und führten in diesem Monat durchschnittlich 10 Anfragen durch. Gehen Sie nun davon aus, dass diese Zahlen für Ihre Community konsistent sind
-
Dies würde bedeuten, dass die Kosten für den KI-Bot im Februar $0.0016 x 600 Benutzer x 10 Anfragen = $9.56 betragen würden
-
Hochgerechnet auf die jährlichen Kosten für den Betrieb des KI-Bots wären dies $9.56 x 12 = $115 für das Jahr für den Betrieb von GPT-5.4 mini als Ihrem LLM der Wahl
Für noch niedrigere Kosten sollten Sie Budget-Modelle wie GPT-5.4 nano ($0.20/$1.25 pro 1M Tokens), Gemini 2.5 Flash ($0.075/$0.30 pro 1M Tokens) oder Claude Haiku 4.5 in Betracht ziehen — diese können die Kosten im Vergleich zum obigen Beispiel um weitere 75–95 % senken. Überprüfen Sie immer die aktuellen Preise Ihres Anbieters, da die Kosten weiter sinken.
Eine Schätzung basierend auf der OpenAI-Community und unserer eigenen Antwort auf das Verhältnis von Anfrage-Tokens ↩︎
Bei der Betrachtung der durchschnittlichen Benutzeranfrage-Token-Nutzung fand ich Werte von bis zu 20 bis über 100. Ich wollte zusammenfassen, dass es mehr Anfragen näher an 100 gab und die Annahme ist, dass diese Anfragen eher vollständige Sätze sind und sich auf gut durchdachte Aufforderungen mit vielen an den Bot gestellten Fragen beziehen ↩︎