Estimation des coûts d'utilisation des LLM pour l'IA de Discourse

:information_source: Pour utiliser certaines fonctionnalités de Discourse AI, les utilisateurs sont tenus d’utiliser un fournisseur de grand modèle de langage (LLM). Veuillez consulter chaque fonctionnalité d’IA pour déterminer quels LLM sont compatibles.

:dollar: Si le coût est une préoccupation majeure, Discourse AI dispose de plusieurs outils intégrés pour aider à gérer les dépenses :

  • Tableau de bord d’utilisation de l’IA (/admin/plugins/discourse-ai/ai-usage) — suivez la consommation de jetons par fonctionnalité, modèle et utilisateur avec les coûts estimés
  • Quotas d’utilisation — définissez des limites par modèle et par groupe sur les jetons ou les nombres de requêtes dans des fenêtres de temps configurables (horaire, quotidien, hebdomadaire)
  • Allocations de crédits — définissez des budgets de crédit globaux par modèle avec des limites souples et strictes
  • Budgets côté fournisseurdéfinissez des limites d’utilisation directement auprès du fournisseur à titre de sauvegarde supplémentaire
  • Restrictions de groupe — n’autorisez que certains utilisateurs et groupes à accéder aux fonctionnalités d’IA

Il existe plusieurs facteurs variables à prendre en compte lors du calcul des coûts d’utilisation des LLM.
Une vue simplifiée serait…

:information_source: Il est important de comprendre ce que sont les jetons et comment les compter

  • Modèle et tarification du LLM → Identifier le modèle LLM spécifique que vous prévoyez d’utiliser et trouver ses dernières informations tarifaires pour les jetons d’entrée et de sortie
  • Jetons d’entrée → La longueur moyenne de vos invites d’entrée en jetons
  • Jetons de sortie → Les réponses du modèle en jetons

Maintenant, examinons l’exemple d’utilisation du Bot IA ici même sur Meta

:warning: De nombreuses simplifications ont été apportées lors de ce calcul, telles que l’utilisation des jetons, les utilisateurs utilisant le Bot IA et le nombre moyen de requêtes. Ces chiffres ne doivent être pris que comme des directives générales. Surtout que nous faisons beaucoup d’expérimentations avec le Bot IA

  1. Utilisez le Tableau de bord d’utilisation de l’IA intégré à l’adresse /admin/plugins/discourse-ai/ai-usage pour examiner votre utilisation réelle des jetons de requête/réponse, ventilée par fonctionnalité, modèle et utilisateur

  2. En moyenne, les jetons de réponse étaient 3 à 5 fois plus volumineux que les jetons de requête [1]

  3. Supposons qu’un jeton de requête utilisateur moyen soit de 85, équivalent à moins d’un paragraphe [2]

  4. Supposons qu’un jeton de réponse moyen soit de 85 x 4 = 340 jetons, soit l’équivalent de 3 paragraphes

  5. En utilisant GPT-5.4 mini d’OpenAI, le coût des jetons d’entrée serait de 0,75 /1M de jetons = 0,00000075 /jeton x 85 jetons = 0,000064 $ pour l’entrée

  6. Pour les jetons de sortie, ce serait 4,50 /1M de jetons = 0,0000045 /jeton x 340 jetons = 0,00153 $ pour la sortie

  7. Le coût total par requête est de 0,000064 + 0,00153 = 0,0016 $

  8. En février 2024, environ 600 utilisateurs utilisaient le Bot IA, effectuant en moyenne 10 requêtes pour ce mois-là. Supposons maintenant que ces chiffres sont cohérents avec votre communauté

  9. Cela signifierait que pour février, le coût du Bot IA serait de 0,0016 x 600 utilisateurs x 10 requêtes = 9,56

  10. En extrapolant cela au coût annuel d’utilisation du Bot IA, cela représenterait 9,56 x 12 = 115 pour l’année pour l’exécution de GPT-5.4 mini comme LLM de votre choix

Pour des coûts encore plus bas, envisagez des modèles budgétaires comme GPT-5.4 nano (0,20 /1,25 par 1M de jetons), Gemini 2.5 Flash (0,075 /0,30 par 1M de jetons), ou Claude Haiku 4.5 — qui peuvent réduire les coûts de 75 à 95 % supplémentaires par rapport à l’exemple ci-dessus. Vérifiez toujours les dernières tarifications auprès de votre fournisseur car les coûts continuent de baisser.


  1. Une estimation basée sur la communauté OpenAI et notre propre réponse au ratio de jetons de requête ↩︎

  2. En examinant l’utilisation moyenne des jetons de requête utilisateur, j’ai trouvé des chiffres aussi bas que 20 à plus de 100. Je voulais encapsuler le fait qu’il y avait plus de requêtes proches de 100 et que l’hypothèse est que ces requêtes pourraient être plus proches de phrases entièrement formées et se référer à des invites bien pensées avec de nombreuses questions posées au bot ↩︎

9 « J'aime »

Nous avons récemment partagé ce qui suit avec un client qui posait des questions sur l’utilisation de la recherche IA dans Meta et sur son coût pour nous :

Le mois dernier, nous avons effectué 1104 recherches dans Meta

  • Le prix de GPT-4o-mini, qui coûterait 0,25 $
  • L’utilisation de haiku coûterait 0,53 $
  • Gemini Flash coûterait 0,06 $

Nous devons faire attention aux jetons de requête qui étaient d’environ 85868 et aux jetons de réponse qui étaient d’environ 408417 de la LLM.

3 « J'aime »

Coûts estimés pour un mois de légendes d’images dans Meta

  • 1019 appels
  • 55M tokens de requête
  • 34K tokens de réponse

Ce qui coûterait, selon le LLM :

  • Claude Haiku 3 : 13,86 $
  • GPT-4o Mini : 8,31 $
  • Gemini 1.5 Flash 8B : 2,07 $
5 « J'aime »