Stima dei costi per l'utilizzo di LLM per la Discourse AI

:information_source: Per utilizzare determinate funzionalità di Discourse AI, è necessario che gli utenti utilizzino un provider di Large Language Model (LLM). Si prega di consultare ciascuna funzionalità AI per determinare quali LLM sono compatibili.

:dollar: Se il costo è una preoccupazione significativa, Discourse AI dispone di diversi strumenti integrati per aiutare a gestire la spesa:

  • Dashboard di utilizzo AI — traccia il consumo di token per funzionalità, modello e utente con costi stimati
  • Quote di utilizzo — imposta limiti per modello e per gruppo sulla quantità di token o sul numero di richieste all’interno di finestre temporali configurabili (orarie, giornaliere, settimanali)
  • Allocazioni di crediti — imposta budget di credito complessivi per modello con limiti soft e hard
  • Budget lato fornitoreimposta limiti di utilizzo direttamente dal fornitore come ulteriore salvaguardia
  • Restrizioni di gruppo — consenti l’accesso alle funzionalità AI solo a utenti e gruppi selezionati

Ci sono diversi fattori variabili da considerare nel calcolo dei costi di utilizzo degli LLM
Una visione semplificata sarebbe…

:information_source: Importante capire cosa sono i token e come contarli

  • Modello LLM e prezzi → Identificare il modello LLM specifico che si intende utilizzare e trovare i dettagli dei prezzi più recenti per i token di input e output
  • Token di input → La lunghezza media dei prompt di input in token
  • Token di output → Le risposte del modello in token

Ora esaminiamo l’esempio di utilizzo del Bot AI qui su Meta

:warning: Sono state apportate molte semplificazioni durante questo calcolo, come l’utilizzo dei token, gli utenti che utilizzano il Bot AI e il numero medio di richieste. Questi numeri devono essere considerati solo come linee guida generali. Soprattutto perché facciamo molte sperimentazioni con il Bot AI

  1. Usa la Dashboard di utilizzo AI integrata in /admin/plugins/discourse-ai/ai-usage per rivedere l’utilizzo effettivo dei token di richiesta/risposta, suddiviso per funzionalità, modello e utente

  2. In media, i token di risposta erano da 3 a 5 volte più grandi dei token di richiesta [1](GPT-3.5 and GPT-4 API response time measurements - FYI - API - OpenAI Developer Community)]

  3. Si assume un token di richiesta utente medio di 85, equivalente a <1 paragrafo [2]

  4. Si assume un token di risposta medio di 85 x 4 = 340 token, l’equivalente di 3 paragrafi

  5. Utilizzando GPT-5.4 mini di OpenAI, il costo per i token di input sarebbe di $0.75 / 1M token = $0.00000075 / token x 85 token = $0.000064 per l’input

  6. Per i token di output sarebbe di $4.50 / 1M token = $0.0000045 / token x 340 token = $0.00153 per l’output

  7. Il costo totale per richiesta è $0.000064 + $0.00153 = $0.0016

  8. Durante febbraio 2024, circa 600 utenti stavano utilizzando il Bot AI, effettuando una media di 10 richieste per quel mese. Ora si supponga che questi numeri siano coerenti con la propria community

  9. Ciò significherebbe che per febbraio il costo per il Bot AI sarebbe di $0.0016 x 600 utenti x 10 richieste = $9.56

  10. Proiettando questo sul costo annuale di esecuzione del Bot AI, sarebbero $9.56 x 12 = $115 per l’anno per l’esecuzione di GPT-5.4 mini come LLM prescelto

Per costi ancora inferiori, considera modelli budget come GPT-5.4 nano ($0.20/$1.25 per 1M token), Gemini 2.5 Flash ($0.075/$0.30 per 1M token) o Claude Haiku 4.5 — che possono ridurre i costi di un ulteriore 75–95% rispetto all’esempio sopra. Controlla sempre i prezzi più recenti dal tuo fornitore poiché i costi continuano a diminuire.


  1. Una stima basata sulla community di OpenAI e sulla nostra risposta al rapporto tra token di richiesta ↩︎

  2. Osservando l’utilizzo medio dei token di richiesta dell’utente ho trovato numeri bassi come 20 fino a >100. Ho voluto sintetizzare che c’erano più richieste vicine a 100 e l’assunto è che tali richieste potrebbero essere più vicine a frasi complete e fare riferimento a prompt ben ponderati con molte domande poste al bot ↩︎

9 Mi Piace

Abbiamo recentemente condiviso quanto segue con un cliente che stava chiedendo dell’uso della ricerca AI in Meta e quanto ci è costato

Il mese scorso abbiamo effettuato 1104 ricerche in Meta

  • Prezzi di GPT-4o-mini, che costerebbero $0,25
  • L’uso di haiku costerebbe $0,53
  • Gemini Flash costerebbe $0,06

Dobbiamo prestare attenzione ai request tokens che erano circa 85868 e ai response tokens che erano circa 408417 dall’LLM

3 Mi Piace

Costi stimati per un mese di didascalie di immagini in Meta

  • 1019 chiamate
  • 55 milioni di token di richiesta
  • 34 mila token di risposta

Che costerebbero, a seconda del LLM:

  • Claude Haiku 3: 13,86 $
  • GPT-4o Mini: 8,31 $
  • Gemini 1.5 Flash 8B: 2,07 $
5 Mi Piace