Konfiguration der LLM-Nutzungsquoten in Discourse AI

:bookmark: Dieser Leitfaden erklärt, wie Sie Nutzungsquoten für Large Language Models (LLMs) in Discourse AI konfigurieren und verwalten.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

Zusammenfassung

LLM-Nutzungsquoten ermöglichen es Administratoren, den Verbrauch von KI-Ressourcen zu steuern und zu überwachen, indem sie Grenzwerte für die Token-Nutzung und Interaktionen für verschiedene Benutzergruppen festlegen. Dies hilft, Kosteneffizienz zu wahren und gleichzeitig einen fairen Zugang zu KI-Funktionen für Ihre Community zu gewährleisten.

Konfiguration

Zugriff auf Quoteneinstellungen

  1. Navigieren Sie zum Admin-Panel Ihrer Website
  2. Gehen Sie zu Admin > Plugins > Discourse AI > LLM Models
  3. Wählen Sie das LLM-Modell aus, das Sie konfigurieren möchten

Einrichten von Quoten

Für jede Benutzergruppe können Sie konfigurieren:

  • Maximale Token-Nutzung
  • Und/Oder Maximale Anzahl von KI-Interaktionen
  • Dauer des Zurücksetzungszeitraums

Daueroptionen

Wählen Sie aus voreingestellten Zurücksetzungszeiträumen:

  • 1 Stunde
  • 6 Stunden
  • 24 Stunden
  • 7 Tage
  • Benutzerdefinierte Dauer (in Stunden angegeben)

Nutzungsüberwachung

Statistiken anzeigen

Administratoren können den Token-Verbrauch und die Nutzungsverbrauch unter folgender Adresse überwachen: https://SITENAME/admin/plugins/discourse-ai/ai-usage

  1. Navigieren Sie zu Admin > Plugins > Discourse AI
  2. Wählen Sie die Registerkarte “Nutzung”
  3. Filtern Sie nach Datumsbereich, Benutzergruppe oder spezifischen Metriken

Benutzererfahrung

Quotenbenachrichtigungen

Benutzer erhalten klares Feedback, wenn sie sich den Quotenlimits nähern oder diese erreichen:

  • Aktueller Nutzungsstatus
  • Zeit bis zur nächsten Quotenrücksetzung

Fehlermeldungen

Wenn eine Quote überschritten wird, sehen Benutzer:

  • Eine klare Benachrichtigung, dass das Quotenlimit erreicht wurde
  • Die verbleibende Zeit bis zur nächsten Quotenrücksetzung

Best Practices

  1. Beginnen Sie konservativ: Beginnen Sie mit niedrigeren Quoten und passen Sie diese basierend auf den tatsächlichen Nutzungsmustern an
  2. Gruppenbasierte Zuweisung: Weisen Sie unterschiedliche Quoten basierend auf den Bedürfnissen und Rollen der Benutzergruppen zu
  3. Regelmäßige Überwachung: Überprüfen Sie Nutzungsmuster, um Quoteneinstellungen zu optimieren
  4. Klare Kommunikation: Informieren Sie Benutzer über Quotenlimits und Zurücksetzungszeiträume

Häufige Probleme und Lösungen

Problem: Benutzer erreichen häufig Limits

Lösung: Erwägen Sie:

  • Erhöhung der Quotenlimits für bestimmte Gruppen
  • Verkürzung des Zurücksetzungszeitraums
  • Erstellung spezialisierter Gruppen für Benutzer mit hoher Nutzung

Problem: Unbenutzte Quoten

Lösung:

  • Passen Sie die Limits nach unten an, um die Ressourcenzuweisung zu optimieren
  • Überprüfen Sie die Gruppenzuweisungen, um sicherzustellen, dass die Quoten den Benutzerbedürfnissen entsprechen

FAQs

F: Können Quoten vorübergehend ausgesetzt werden?
A: Ja, Administratoren können die Quotenüberwachung für bestimmte Gruppen oder die gesamte Website vorübergehend deaktivieren.

F: Werden ungenutzte Quoten übertragen?
A: Nein, Quoten werden am Ende jedes Zeitraums vollständig zurückgesetzt.

F: Können verschiedene LLM-Modelle unterschiedliche Quoten haben?
A: Ja, Quoten können für jedes LLM unabhängig konfiguriert werden.

F: Was passiert, wenn mehrere Quoten für ein einzelnes LLM festgelegt werden?
A: Quoten sind gruppenbasiert und werden pro Benutzer angewendet. Damit ein Benutzer eine Quote überschreitet, muss der Benutzer die Quote in allen Gruppen überschreiten. Das bedeutet, dass, wenn Sie Administratoren eine sehr lockere Quote und Vertrauensstufe 1 eine restriktivere geben, die Admin-Quote für Administratoren gilt.

F: Was passiert, wenn für ein LLM keine Quote angewendet wird?
A: Es passiert nichts Besonderes, die gesamte LLM-Nutzung wird nicht gemessen.

F: Was ist, wenn ich unterschiedliche Quoten für verschiedene Funktionen wünsche?
A: Discourse AI ermöglicht es Ihnen, mehrere LLMs zu definieren, die alle mit demselben Endpunkt verbunden sind und sogar Schlüssel wiederverwenden können. Wenn Sie eine Quote für den KI-Helfer und eine andere für den KI-Bot festlegen möchten, definieren Sie 2 LLMs.

Zusätzliche Ressourcen

10 „Gefällt mir“

Es scheint, dass wir eine Gruppe nicht vollständig daran hindern können, ein bestimmtes Modell zu verwenden, indem wir das Kontingent auf 0 setzen.

Könnten Sie die Unterstützung für diese Einstellung hinzufügen?

Entschuldigung, können Sie das hier erweitern. Jede Funktion ist auch gruppenbeschränkt, sodass Sie den Helfer ohnehin nur für eine Teilmenge von Benutzern aktivieren können.

Ich möchte, dass einige Premium-Modelle nur bestimmten Gruppen vorbehalten sind. Es wäre großartig, wenn wir das Kontingent eines Modells auf 0 setzen könnten, um den Zugriff für bestimmte Gruppen zu deaktivieren.

2 „Gefällt mir“

Ja, das ist ein interessantes Problem. Ich werde darüber nachdenken.

Sie möchten vielleicht, dass der Helfer GPT4o für „spezielle Gruppe 1“ und GPT4o mini für die restlichen Personen verwendet.

Derzeit können Sie nur ein Modell für den KI-Helfer auswählen, daher wäre eine ziemlich große Änderung erforderlich, um dies zu unterstützen.

@Falco / @Saif / @awesomerobot, etwas zum Nachdenken.

5 „Gefällt mir“