Ce guide couvre la page d’utilisation de l’IA qui fait partie du plugin Discourse AI.
Niveau utilisateur requis : Administrateur
La page d’utilisation de l’IA est conçue pour que les administrateurs comprennent comment la communauté utilise les fonctionnalités de Discourse AI au fil du temps. Cela peut être utile dans Estimating costs of using LLMs for Discourse AI.
Fonctionnalités
- Horizon temporel : dernières 24 heures, dernière semaine, dernier mois et plage de dates personnalisée
- Sélectionnable par fonctionnalité Discourse AI
- Sélectionnable par LLM activés
- Aperçu du résumé
- Requêtes totales : Toutes les requêtes envoyées aux LLM via Discourse
- Jetons totaux : Tous les jetons utilisés lors de l’envoi d’une invite à un LLM
- Jetons de requête : Jetons utilisés lorsque le LLM essaie de comprendre ce que vous dites
- Jetons de réponse : Jetons utilisés lorsque le LLM répond à votre invite
- Jetons lus depuis le cache : Jetons de requête précédemment traités que le LLM réutilise depuis le cache pour optimiser les performances et les coûts
- Jetons écrits dans le cache : Jetons de requête qui ont été écrits dans le cache pour une réutilisation future potentielle
- Coût estimé : Coût cumulé de tous les jetons utilisés par les LLM en fonction des métriques de coût spécifiées ajoutées aux configurations des LLM
- Graphique à barres interactif présentant l’utilisation des jetons
- Jetons, nombre d’utilisations et coût estimé par fonctionnalité Discourse AI
- Jetons, nombre d’utilisations et coût estimé par LLM
- Jetons, nombre d’utilisations et coût estimé par utilisateur
Activation de l’utilisation de l’IA
Prérequis
Pour que les données soient renseignées, vous devez configurer au moins un Grand Modèle de Langage (LLM) auprès d’un fournisseur et que les membres utilisent les fonctionnalités de Discourse AI.
Pour commencer, vous pouvez configurer des LLM via la page des paramètres Discourse AI - Grand Modèle de Langage (LLM).
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock
- Google Gemini
- Mistral
- Groq
- SambaNova
- Open Router
- Cohere
- HuggingFace
- vLLM / Auto-hébergement d’un LLM OpenSource
Configuration
- Allez dans les paramètres
Admin→Plugins→AI→ ongletSettingset assurez-vous qu’il est activé (discourse ai enabled) - Dans le plugin AI, naviguez vers l’onglet
Usage
FAQ Technique
Que sont les jetons et comment fonctionnent-ils ?
- Les jetons sont les unités de base que les LLM utilisent pour comprendre et générer du texte. Les données d’utilisation peuvent affecter les coûts. Consultez Estimation des coûts d’utilisation des LLM pour Discourse AI pour en savoir plus.
