Dieser Leitfaden erklärt, wie Nutzungsquoten für Large Language Models (LLMs) in Discourse AI konfiguriert und verwaltet werden.
Erforderliche Benutzerebene: Administrator
Zusammenfassung
LLM-Nutzungsquoten ermöglichen es Administratoren, den Verbrauch von KI-Ressourcen zu steuern und zu überwachen, indem sie Limits für die Token-Nutzung und Interaktionen für verschiedene Benutzergruppen festlegen. Dies trägt zur Kosteneffizienz bei und gewährleistet gleichzeitig einen fairen Zugang zu KI-Funktionen in Ihrer Community.
Konfiguration
Zugriff auf die Quota-Einstellungen
- Navigieren Sie zum Admin-Panel Ihrer Seite
- Gehen Sie zu
Admin > Plugins > Discourse AI > LLMs - Wählen Sie das LLM-Modell aus, das Sie konfigurieren möchten
Einrichten von Quotas
Für jede Benutzergruppe können Sie konfigurieren:
- Maximale Token-Nutzung
- Und/Oder Maximale Anzahl von KI-Interaktionen
- Dauer des Zurücksetzungszeitraums
Für jede Quote muss mindestens eine der Einstellungen für die maximale Token-Anzahl oder die maximale Nutzung festgelegt werden.
Hinweis: Der Gruppe „everyone“ (Jeder) kann keine Quote zugewiesen werden. Sie müssen spezifische Gruppen verwenden (z. B. Vertrauensstufen-Gruppen oder benutzerdefinierte Gruppen).
Daueroptionen
Wählen Sie aus voreingestellten Zurücksetzungszeiträumen:
- 1 Stunde
- 6 Stunden
- 24 Stunden
- 7 Tage
- Benutzerdefinierte Dauer (in Stunden angegeben)
Nutzungsüberwachung
Statistiken anzeigen
Administratoren können den Token-Verbrauch und die Nutzungsverbrauchsstatistiken unter folgendem Link überwachen: https://SITENAME/admin/plugins/discourse-ai/ai-usage
- Navigieren Sie zu
Admin > Plugins > Discourse AI - Wählen Sie die Registerkarte „Usage“ (Nutzung)
- Filtern Sie nach Datumsbereich, Benutzergruppe oder spezifischen Metriken
Benutzererfahrung
Quota-Benachrichtigungen
Benutzer erhalten klare Rückmeldungen, wenn sie sich den Quota-Grenzwerten nähern oder diese erreichen:
- Aktueller Nutzungsstatus
- Zeit bis zur nächsten Quota-Zurücksetzung
Fehlermeldungen
Wenn eine Quota überschritten wird, sehen Benutzer:
- Eine klare Benachrichtigung, dass das Quota-Limit erreicht wurde
- Die verbleibende Zeit bis zur nächsten Quota-Zurücksetzung
Best Practices
- Konservativ beginnen: Beginnen Sie mit niedrigeren Quotas und passen Sie diese basierend auf den tatsächlichen Nutzungsmustern an
- Gruppenbasierte Zuweisung: Weisen Sie unterschiedliche Quotas basierend auf den Bedürfnissen und Rollen der Benutzergruppen zu
- Regelmäßige Überwachung: Überprüfen Sie Nutzungsmuster, um die Quota-Einstellungen zu optimieren
- Klare Kommunikation: Informieren Sie die Benutzer über Quota-Limits und Zurücksetzungszeiträume
Häufige Probleme und Lösungen
Problem: Benutzer stoßen häufig auf Limits
Lösung: Ziehen Sie in Betracht:
- Erhöhung der Quota-Limits für bestimmte Gruppen
- Verkürzung des Zurücksetzungszeitraums
- Erstellung spezialisierter Gruppen für Benutzer mit hoher Nutzung
Problem: Unbenutzte Quotas
Lösung:
- Passen Sie die Limits nach unten an, um die Ressourcenzuweisung zu optimieren
- Überprüfen Sie die Gruppenzuweisungen, um sicherzustellen, dass die Quotas den Benutzerbedürfnissen entsprechen
FAQs
F: Werden ungenutzte Quotas übertragen?
A: Nein, Quotas werden am Ende jedes Zeitraums vollständig zurückgesetzt.
F: Können verschiedene LLM-Modelle unterschiedliche Quotas haben?
A: Ja, Quotas können für jedes LLM unabhängig konfiguriert werden.
F: Was passiert, wenn mehrere Quotas für ein einzelnes LLM festgelegt sind?
A: Quotas sind gruppenbasiert und gelten pro Benutzer. Damit ein Benutzer das Quota überschreitet, muss der Benutzer das Quota in allen Gruppen überschreiten. Das bedeutet, wenn Sie Administratoren ein sehr lockeres Quota und Vertrauensstufe 1 ein restriktiveres geben, gilt das Admin-Quota für Admins.
F: Was passiert, wenn kein Quota auf ein LLM angewendet wird?
A: Es passiert nichts Besonderes, die gesamte LLM-Nutzung wird unbegrenzt sein.
F: Was ist, wenn ich unterschiedliche Quotas für verschiedene Funktionen wünsche?
A: Discourse AI ermöglicht es Ihnen, mehrere LLMs zu definieren, die alle auf denselben Endpunkt zugreifen und sogar Schlüssel wiederverwenden können. Wenn Sie dem AI Helper ein Quota und dem AI Agent ein anderes geben möchten, definieren Sie 2 LLMs.
F: Wie entferne ich ein Quota?
A: Löschen Sie das Quota auf der Konfigurationsseite des LLM-Modells. Es gibt keine Möglichkeit, ein Quota vorübergehend zu „pausieren“ oder zu deaktivieren – es muss gelöscht und neu erstellt werden.


