J’ai fait quelques calculs et je suis arrivé à la conclusion que sans la possibilité de limiter l’entrée et la sortie de jetons mensuelles ou quotidiennes d’un utilisateur, on peut rapidement se retrouver dans de beaux draps. Actuellement, la seule façon de limiter l’interaction d’un utilisateur avec un bot IA est d’autoriser les bots IA uniquement en MP (désactivant le chat pour chaque persona) et de définir une limite de MP quotidiens autorisés — mais c’est bien sûr irréaliste. Voici un exemple de ventilation des coûts du « pire scénario » qui justifie le besoin de cette fonctionnalité, en utilisant l’approche qu’OpenAI utilise pour ses membres chatGPT :
GPT-4o mini avec 32k de contexte (P.S. la longueur du contexte est définie à l’aide du paramètre « Nombre de jetons pour l’invite » sur la page des paramètres des LLM)
Coût actuel : 0,15 1M entrée / 0,60 1M sortie
Supposons que l’utilisateur saisisse 32k et produise 16k chaque jour pendant 30 jours (un cycle de facturation pour un abonnement typique) :
Coût des entrées mensuelles = 960 000 jetons = ~0,14 $
Coût des sorties mensuelles = 480 000 jetons = ~0,28 $
D’accord, ce n’est pas si mal, n’est-ce pas ? Moins d’un demi-dollar. Cependant, c’est en fait une utilisation plutôt faible, d’autant plus que GPT-4o mini peut générer jusqu’à 16,4k jetons en une seule fois (bien qu’il soit vrai que vous pouvez concevoir l’invite et les paramètres du LLM pour l’éviter). Vous pouvez commencer à multiplier ces coûts par autant que vous pensez que vos utilisateurs utiliseraient le bot IA. Le pire, c’est qu’il s’agit d’un modèle incroyablement bon marché ; les coûts sont exponentiellement plus élevés pour Claude 3.5 Sonnet (3 1M entrée / 15 1M sortie) et GPT-4o (5 1M entrée / 15 1M sortie) — et ne parlons même pas de GPT-4 Turbo lol. Voici la même ventilation pour Claude 3.5 Sonnet :
Claude 3.5 Sonnet avec 32k de contexte
Coût des entrées mensuelles = ~2,88 $
Coût des sorties mensuelles = ~7,20 $
Total = ~10,08 $
Mais encore une fois : c’est une faible utilisation. Il devient donc clair à quel point une utilisation non contrainte des LLM dans les bots IA peut être coûteuse. Si vous multipliez cela par 2, vous devrez alors facturer un abonnement de 25 pour réaliser un profit d'un peu moins de 5 ![]()
Voici ce que je propose formellement :
- Un paramètre qui permet une quantité spécifique d’entrées et de sorties de jetons pour un groupe d’utilisateurs spécifié chaque mois ou jour pour les bots IA.
- Cette utilisation de jetons n’inclurait PAS l’invite système pour les personas.
- Les limites de jetons peuvent être par LLM, par persona ou universelles/globales.
- Alternativement au point 1, une simple limite entière pour l’utilisation des bots IA dans les DM et les MP pourrait être utilisée. Exemple : limite de 100 DM à n’importe quel persona par jour.
- Un paramètre qui permet une quantité spécifique de sorties de jetons pour un groupe d’utilisateurs spécifié chaque mois ou jour pour l’assistant IA.
- Les entrées de jetons peuvent ne pas être comptées car il serait peu pratique d’attendre de l’utilisateur qu’il devine combien de jetons un long sujet représente lorsqu’il génère, par exemple, un résumé.
- Il pourrait également être judicieux de fixer une limite entière stricte à la longueur (en mots afin de ne pas avoir à utiliser TikToken ici) pour les invites personnalisées afin que les utilisateurs n’essaient pas de contourner leurs limites mensuelles/quotidiennes en utilisant le Compositeur comme un chatbot illimité

- Un compteur de jetons dans le profil de l’utilisateur et peut-être même dans ses MP et DM. Ce serait bien s’il y avait un petit texte à côté de chaque message utilisateur et IA affichant le nombre de jetons qu’il représente (nous ne voulons pas nécessairement autoriser tout le monde à utiliser la fonctionnalité de débogage, et cela ne fonctionne de toute façon qu’en MP)
- Un compteur de jetons séparé pour l’assistant IA (pour aider à séparer ces deux fonctionnalités) qui partage un décompte entre expliquer, relire, invite personnalisée, etc…
Note annexe : Je ne critique absolument pas cette fonctionnalité ni les développeurs d’aucune manière et je m’excuse si une partie de cela transparaît ainsi. Honnêtement, le plugin Discourse AI est l’une de mes technologies préférées de tous les temps. En fait, il me permet de construire l’entreprise de mes rêves en tant que chercheur et éducateur en IA sans avoir à embaucher d’ingénieurs supplémentaires et à payer pour une infrastructure supplémentaire — je peux tout mettre en place moi-même
. Je pense simplement que cette fonctionnalité est la dernière pièce du puzzle non seulement pour moi, mais pour de nombreux autres utilisateurs de Discourse qui veulent permettre à leurs utilisateurs de profiter de cette merveilleuse technologie avec raison.