Estimation des coûts d'utilisation des LLMs pour Discourse AI

:information_source: Pour utiliser certaines fonctionnalités de Discourse AI, les utilisateurs doivent utiliser un fournisseur de modèle linguistique important (LLM). Veuillez consulter chaque fonctionnalité d’IA pour déterminer quels LLM sont compatibles.

:dollar: Si le coût est une préoccupation majeure, une façon de le combattre est de définir des limites d’utilisation directement auprès du fournisseur et d’utiliser un budget mensuel. Une autre option est de n’autoriser que des utilisateurs et des groupes sélectionnés à accéder aux fonctionnalités d’IA.

Il existe plusieurs facteurs variables à prendre en compte lors du calcul des coûts d’utilisation des LLM.
Une vue simplifiée serait…

:information_source: Il est important de comprendre ce que sont les tokens et comment les compter.

  • Modèle LLM et tarification → Identifier le modèle LLM spécifique que vous prévoyez d’utiliser et trouver ses derniers détails de tarification pour les tokens d’entrée et de sortie.
  • Tokens d’entrée → La longueur moyenne de vos invites d’entrée en tokens.
  • Token de sortie → Ce sont les réponses du modèle en tokens.

Passons maintenant à l’exemple d’utilisation du Bot IA ici même sur Meta.

:warning: De nombreuses simplifications ont été apportées lors de ce calcul, telles que l’utilisation des tokens, les utilisateurs utilisant le Bot IA et le nombre moyen de requêtes. Ces chiffres ne doivent être considérés que comme des directives générales. D’autant plus que nous expérimentons beaucoup avec le Bot IA.

  1. Utilisation de Data Explorer pour comprendre les tokens moyens de requête/réponse et toutes les autres données ici.

  2. En moyenne, les tokens de réponse étaient 3 à 5 fois plus importants que les tokens de requête [1].

  3. Supposons qu’une requête utilisateur moyenne soit de 85 tokens, ce qui équivaut à moins d’un paragraphe [2].

  4. Supposons qu’un token de réponse moyen soit de 85 x 4 = 340 tokens, soit l’équivalent de 3 paragraphes.

  5. En utilisant GPT-4 Turbo d’OpenAI, le coût des tokens d’entrée serait de 10 /1M de tokens = 0,00001 /token x 85 tokens = 0,00085 $ pour l’entrée.

  6. Pour les tokens de sortie, ce serait 30,00 /1M de tokens = 0,00003 /token x 340 tokens = 0,0102 $ pour la sortie.

  7. Le coût total par requête est de 0,00085 + 0,0102 = 0,01105 $.

  8. En février 2024, environ 600 utilisateurs utilisaient le Bot IA, effectuant en moyenne 10 requêtes pour ce mois. Supposons maintenant que ces chiffres soient cohérents avec votre communauté.

  9. Cela signifierait que pour février, le coût du Bot IA serait de 0,01105 x 600 utilisateurs x 10 requêtes = 66 .

  10. En projetant cela sur un an, le coût de fonctionnement du Bot IA serait de 66 x 12 = 792 pour l’année, en utilisant GPT-4 Turbo comme LLM de votre choix.

Maintenant, avec GPT-4o, vous pouvez encore diviser par deux ce coût final !


  1. Une estimation basée sur le forum OpenAI et notre propre ratio réponse/requête en tokens ↩︎

  2. Combien de mots font 85 tokens ? En examinant l’utilisation moyenne des tokens de requête utilisateur, j’ai trouvé des chiffres aussi bas que 20 et supérieurs à 100. Je voulais souligner qu’il y avait plus de requêtes proches de 100 et l’hypothèse est que ces requêtes pourraient être plus proches de phrases complètes et faire référence à des invites bien pensées avec beaucoup de questions posées au bot ↩︎

9 « J'aime »

Nous avons récemment partagé ce qui suit avec un client qui posait des questions sur l’utilisation de la recherche IA dans Meta et sur son coût pour nous :

Le mois dernier, nous avons effectué 1104 recherches dans Meta

  • Le prix de GPT-4o-mini, qui coûterait 0,25 $
  • L’utilisation de haiku coûterait 0,53 $
  • Gemini Flash coûterait 0,06 $

Nous devons faire attention aux jetons de requête qui étaient d’environ 85868 et aux jetons de réponse qui étaient d’environ 408417 de la LLM.

3 « J'aime »

Coûts estimés pour un mois de légendes d’images dans Meta

  • 1019 appels
  • 55M tokens de requête
  • 34K tokens de réponse

Ce qui coûterait, selon le LLM :

  • Claude Haiku 3 : 13,86 $
  • GPT-4o Mini : 8,31 $
  • Gemini 1.5 Flash 8B : 2,07 $
5 « J'aime »