Discourse AI - KI-Nutzung

:bookmark: Diese Anleitung behandelt die Seite zur KI-Nutzung, die Teil des Discourse AI-Plugins ist.

:person_raising_hand: Erforderliches Benutzerniveau: Administrator

Die Seite zur KI-Nutzung wurde für Administratoren entwickelt, um zu verstehen, wie die Community die Discourse AI-Funktionen im Laufe der Zeit nutzt. Dies kann in Schätzung der Kosten für die Verwendung von LLMs für Discourse AI hilfreich sein.

Funktionen

  • Zeitrahmen: 24 Stunden, letzte Woche und benutzerdefinierte Daten
  • Auswählbar nach Discourse AI-Funktion
  • Auswählbar nach aktivierten LLMs
  • Zusammenfassende Vorschau
    • Gesamtanfragen: Alle Anfragen an LLMs über Discourse
    • Gesamt-Token: Alle Token, die beim Auffordern eines LLM verwendet werden
    • Anfrage-Token: Token, die verwendet werden, wenn das LLM versucht zu verstehen, was Sie sagen
    • Antwort-Token: Token, die verwendet werden, wenn das LLM auf Ihre Aufforderung antwortet
    • Cache-Token: Zuvor verarbeitete Anfrage-Token, die das LLM zur Optimierung von Leistung und Kosten verwendet
  • Interaktives Balkendiagramm zur Darstellung der Token-Nutzung
  • Token- und Nutzungsanzahl pro Discourse AI-Funktion
  • Token- und Nutzungsanzahl pro LLM

Aktivierung der KI-Nutzung

Voraussetzungen

:information_source: Damit Daten angezeigt werden, müssen Sie mindestens ein Large Language Model (LLM) von einem Anbieter konfigurieren und Mitglieder müssen die Discourse AI-Funktionen nutzen.

Um loszulegen, können Sie LLMs über die Discourse AI - Einstellungen für Large Language Model (LLM) konfigurieren.

Konfiguration

  1. Gehen Sie zu den Admin-Einstellungen → PluginsAI → Tab Settings und stellen Sie sicher, dass es aktiviert ist (discourse ai enabled).
  2. Navigieren Sie im AI-Plugin zum Tab Usage.

Technisches FAQ

Was sind Token und wie funktionieren sie?

7 „Gefällt mir“