LLM-Nutzungsquoten in Discourse AI konfigurieren

:bookmark: Dieser Leitfaden erklärt, wie Nutzungsquoten für Large Language Models (LLMs) in Discourse AI konfiguriert und verwaltet werden.

:person_raising_hand: Erforderliche Benutzerebene: Administrator

Zusammenfassung

LLM-Nutzungsquoten ermöglichen es Administratoren, den Verbrauch von KI-Ressourcen zu steuern und zu überwachen, indem sie Limits für die Token-Nutzung und Interaktionen für verschiedene Benutzergruppen festlegen. Dies trägt zur Kosteneffizienz bei und gewährleistet gleichzeitig einen fairen Zugang zu KI-Funktionen in Ihrer Community.

Konfiguration

Zugriff auf die Quota-Einstellungen

  1. Navigieren Sie zum Admin-Panel Ihrer Seite
  2. Gehen Sie zu Admin > Plugins > Discourse AI > LLMs
  3. Wählen Sie das LLM-Modell aus, das Sie konfigurieren möchten

Einrichten von Quotas

Für jede Benutzergruppe können Sie konfigurieren:

  • Maximale Token-Nutzung
  • Und/Oder Maximale Anzahl von KI-Interaktionen
  • Dauer des Zurücksetzungszeitraums

Für jede Quote muss mindestens eine der Einstellungen für die maximale Token-Anzahl oder die maximale Nutzung festgelegt werden.

:notepad_spiral: Hinweis: Der Gruppe „everyone“ (Jeder) kann keine Quote zugewiesen werden. Sie müssen spezifische Gruppen verwenden (z. B. Vertrauensstufen-Gruppen oder benutzerdefinierte Gruppen).

Daueroptionen

Wählen Sie aus voreingestellten Zurücksetzungszeiträumen:

  • 1 Stunde
  • 6 Stunden
  • 24 Stunden
  • 7 Tage
  • Benutzerdefinierte Dauer (in Stunden angegeben)

Nutzungsüberwachung

Statistiken anzeigen

Administratoren können den Token-Verbrauch und die Nutzungsverbrauchsstatistiken unter folgendem Link überwachen: https://SITENAME/admin/plugins/discourse-ai/ai-usage

  1. Navigieren Sie zu Admin > Plugins > Discourse AI
  2. Wählen Sie die Registerkarte „Usage“ (Nutzung)
  3. Filtern Sie nach Datumsbereich, Benutzergruppe oder spezifischen Metriken

Benutzererfahrung

Quota-Benachrichtigungen

Benutzer erhalten klare Rückmeldungen, wenn sie sich den Quota-Grenzwerten nähern oder diese erreichen:

  • Aktueller Nutzungsstatus
  • Zeit bis zur nächsten Quota-Zurücksetzung

Fehlermeldungen

Wenn eine Quota überschritten wird, sehen Benutzer:

  • Eine klare Benachrichtigung, dass das Quota-Limit erreicht wurde
  • Die verbleibende Zeit bis zur nächsten Quota-Zurücksetzung

Best Practices

  1. Konservativ beginnen: Beginnen Sie mit niedrigeren Quotas und passen Sie diese basierend auf den tatsächlichen Nutzungsmustern an
  2. Gruppenbasierte Zuweisung: Weisen Sie unterschiedliche Quotas basierend auf den Bedürfnissen und Rollen der Benutzergruppen zu
  3. Regelmäßige Überwachung: Überprüfen Sie Nutzungsmuster, um die Quota-Einstellungen zu optimieren
  4. Klare Kommunikation: Informieren Sie die Benutzer über Quota-Limits und Zurücksetzungszeiträume

Häufige Probleme und Lösungen

Problem: Benutzer stoßen häufig auf Limits

Lösung: Ziehen Sie in Betracht:

  • Erhöhung der Quota-Limits für bestimmte Gruppen
  • Verkürzung des Zurücksetzungszeitraums
  • Erstellung spezialisierter Gruppen für Benutzer mit hoher Nutzung

Problem: Unbenutzte Quotas

Lösung:

  • Passen Sie die Limits nach unten an, um die Ressourcenzuweisung zu optimieren
  • Überprüfen Sie die Gruppenzuweisungen, um sicherzustellen, dass die Quotas den Benutzerbedürfnissen entsprechen

FAQs

F: Werden ungenutzte Quotas übertragen?
A: Nein, Quotas werden am Ende jedes Zeitraums vollständig zurückgesetzt.

F: Können verschiedene LLM-Modelle unterschiedliche Quotas haben?
A: Ja, Quotas können für jedes LLM unabhängig konfiguriert werden.

F: Was passiert, wenn mehrere Quotas für ein einzelnes LLM festgelegt sind?
A: Quotas sind gruppenbasiert und gelten pro Benutzer. Damit ein Benutzer das Quota überschreitet, muss der Benutzer das Quota in allen Gruppen überschreiten. Das bedeutet, wenn Sie Administratoren ein sehr lockeres Quota und Vertrauensstufe 1 ein restriktiveres geben, gilt das Admin-Quota für Admins.

F: Was passiert, wenn kein Quota auf ein LLM angewendet wird?
A: Es passiert nichts Besonderes, die gesamte LLM-Nutzung wird unbegrenzt sein.

F: Was ist, wenn ich unterschiedliche Quotas für verschiedene Funktionen wünsche?
A: Discourse AI ermöglicht es Ihnen, mehrere LLMs zu definieren, die alle auf denselben Endpunkt zugreifen und sogar Schlüssel wiederverwenden können. Wenn Sie dem AI Helper ein Quota und dem AI Agent ein anderes geben möchten, definieren Sie 2 LLMs.

F: Wie entferne ich ein Quota?
A: Löschen Sie das Quota auf der Konfigurationsseite des LLM-Modells. Es gibt keine Möglichkeit, ein Quota vorübergehend zu „pausieren“ oder zu deaktivieren – es muss gelöscht und neu erstellt werden.

Zusätzliche Ressourcen

11 „Gefällt mir“

Es scheint, dass wir eine Gruppe nicht vollständig daran hindern können, ein bestimmtes Modell zu verwenden, indem wir das Kontingent auf 0 setzen.

Könnten Sie die Unterstützung für diese Einstellung hinzufügen?

Entschuldigung, können Sie das hier erweitern. Jede Funktion ist auch gruppenbeschränkt, sodass Sie den Helfer ohnehin nur für eine Teilmenge von Benutzern aktivieren können.

Ich möchte, dass einige Premium-Modelle nur bestimmten Gruppen vorbehalten sind. Es wäre großartig, wenn wir das Kontingent eines Modells auf 0 setzen könnten, um den Zugriff für bestimmte Gruppen zu deaktivieren.

2 „Gefällt mir“

Ja, das ist ein interessantes Problem. Ich werde darüber nachdenken.

Sie möchten vielleicht, dass der Helfer GPT4o für „spezielle Gruppe 1“ und GPT4o mini für die restlichen Personen verwendet.

Derzeit können Sie nur ein Modell für den KI-Helfer auswählen, daher wäre eine ziemlich große Änderung erforderlich, um dies zu unterstützen.

@Falco / @Saif / @awesomerobot, etwas zum Nachdenken.

5 „Gefällt mir“