Pour utiliser certaines fonctionnalités de Discourse AI, les utilisateurs sont tenus d’utiliser un fournisseur de grand modèle de langage (LLM). Veuillez consulter chaque fonctionnalité d’IA pour déterminer quels LLM sont compatibles.
Si le coût est une préoccupation majeure, Discourse AI dispose de plusieurs outils intégrés pour aider à gérer les dépenses :
- Tableau de bord d’utilisation de l’IA (/admin/plugins/discourse-ai/ai-usage) — suivez la consommation de jetons par fonctionnalité, modèle et utilisateur avec les coûts estimés
- Quotas d’utilisation — définissez des limites par modèle et par groupe sur les jetons ou les nombres de requêtes dans des fenêtres de temps configurables (horaire, quotidien, hebdomadaire)
- Allocations de crédits — définissez des budgets de crédit globaux par modèle avec des limites souples et strictes
- Budgets côté fournisseur — définissez des limites d’utilisation directement auprès du fournisseur à titre de sauvegarde supplémentaire
- Restrictions de groupe — n’autorisez que certains utilisateurs et groupes à accéder aux fonctionnalités d’IA
Il existe plusieurs facteurs variables à prendre en compte lors du calcul des coûts d’utilisation des LLM.
Une vue simplifiée serait…
Il est important de comprendre ce que sont les jetons et comment les compter
- Modèle et tarification du LLM → Identifier le modèle LLM spécifique que vous prévoyez d’utiliser et trouver ses dernières informations tarifaires pour les jetons d’entrée et de sortie
- Jetons d’entrée → La longueur moyenne de vos invites d’entrée en jetons
- Jetons de sortie → Les réponses du modèle en jetons
Maintenant, examinons l’exemple d’utilisation du Bot IA ici même sur Meta
De nombreuses simplifications ont été apportées lors de ce calcul, telles que l’utilisation des jetons, les utilisateurs utilisant le Bot IA et le nombre moyen de requêtes. Ces chiffres ne doivent être pris que comme des directives générales. Surtout que nous faisons beaucoup d’expérimentations avec le Bot IA
-
Utilisez le Tableau de bord d’utilisation de l’IA intégré à l’adresse
/admin/plugins/discourse-ai/ai-usagepour examiner votre utilisation réelle des jetons de requête/réponse, ventilée par fonctionnalité, modèle et utilisateur -
En moyenne, les jetons de réponse étaient 3 à 5 fois plus volumineux que les jetons de requête [1]
-
Supposons qu’un jeton de requête utilisateur moyen soit de 85, équivalent à moins d’un paragraphe [2]
-
Supposons qu’un jeton de réponse moyen soit de 85 x 4 = 340 jetons, soit l’équivalent de 3 paragraphes
-
En utilisant GPT-5.4 mini d’OpenAI, le coût des jetons d’entrée serait de 0,75 /1M de jetons = 0,00000075 /jeton x 85 jetons = 0,000064 $ pour l’entrée
-
Pour les jetons de sortie, ce serait 4,50 /1M de jetons = 0,0000045 /jeton x 340 jetons = 0,00153 $ pour la sortie
-
Le coût total par requête est de 0,000064 + 0,00153 = 0,0016 $
-
En février 2024, environ 600 utilisateurs utilisaient le Bot IA, effectuant en moyenne 10 requêtes pour ce mois-là. Supposons maintenant que ces chiffres sont cohérents avec votre communauté
-
Cela signifierait que pour février, le coût du Bot IA serait de 0,0016 x 600 utilisateurs x 10 requêtes = 9,56
-
En extrapolant cela au coût annuel d’utilisation du Bot IA, cela représenterait 9,56 x 12 = 115 pour l’année pour l’exécution de GPT-5.4 mini comme LLM de votre choix
Pour des coûts encore plus bas, envisagez des modèles budgétaires comme GPT-5.4 nano (0,20 /1,25 par 1M de jetons), Gemini 2.5 Flash (0,075 /0,30 par 1M de jetons), ou Claude Haiku 4.5 — qui peuvent réduire les coûts de 75 à 95 % supplémentaires par rapport à l’exemple ci-dessus. Vérifiez toujours les dernières tarifications auprès de votre fournisseur car les coûts continuent de baisser.
Une estimation basée sur la communauté OpenAI et notre propre réponse au ratio de jetons de requête ↩︎
En examinant l’utilisation moyenne des jetons de requête utilisateur, j’ai trouvé des chiffres aussi bas que 20 à plus de 100. Je voulais encapsuler le fait qu’il y avait plus de requêtes proches de 100 et que l’hypothèse est que ces requêtes pourraient être plus proches de phrases entièrement formées et se référer à des invites bien pensées avec de nombreuses questions posées au bot ↩︎