估算使用LLMs进行Discourse AI的成本

:information_source: 要使用某些 Discourse AI 功能,用户需要使用大型语言模型 (LLM) 提供商。请参阅每个 AI 功能以确定兼容的 LLM。

:dollar: 如果成本是一个重要的担忧,一种方法是 直接从供应商处设置使用限制 并使用月度预算。另一种选择是仅允许选定的用户和群组访问 AI 功能。

在使用 LLM 的成本计算时,有几个可变的因素需要考虑。
简化的视图将是……

:information_source: 理解 什么是 token 以及如何计算它们 很重要。

  • LLM 模型和定价 → 确定您计划使用的特定 LLM 模型,并查找其输入和输出 token 的最新定价详情。
  • 输入 token → 输入提示的平均 token 长度。
  • 输出 token → 这是模型以 token 为单位的响应。

现在,让我们以 Meta 上 AI Bot 的使用为例进行说明。

:warning: 在此计算过程中进行了许多简化,例如 token 使用量、使用 AI Bot 的用户以及平均请求数。这些数字仅应作为一般指南。特别是,我们对 AI Bot 进行了大量实验。

  1. 使用数据浏览器了解平均请求/响应 token 以及此处的所有其他数据。

  2. 平均而言,响应 token 是请求 token 的 3 到 5 倍 [1]

  3. 假设平均用户请求 token 为 85,相当于 <1 段 [2]

  4. 假设平均响应 token 为 85 x 4 = 340 个 token,相当于 3 段。

  5. 使用 OpenAI 的 GPT-4 Turbo,输入 token 的成本为 10 美元/100 万 token = 0.00001 美元/token x 85 token = 输入 0.00085 美元。

  6. 对于输出 token,成本为 30.00 美元/100 万 token = 0.00003 美元/token x 340 token = 输出 0.0102 美元。

  7. 每个请求的总成本为 0.00085 美元 + 0.0102 美元 = 0.01105 美元。

  8. 在 2024 年 2 月,约有 600 名用户使用 AI Bot,该月平均发送 10 个请求。现在假设这些数字与您的社区一致。

  9. 这意味着 2 月份 AI Bot 的成本将为 0.01105 美元 x 600 用户 x 10 个请求 = 66 美元。

  10. 将此快进到运行 AI Bot 一年的成本,即 66 美元 x 12 = 792 美元,用于运行 GPT-4 Turbo 作为您选择的 LLM。

现在使用 GPT-4o,您可以将最终成本再降低一半!


  1. 通过查看 OpenAI 社区和我们自己的请求 token 比率响应 进行估算 ↩︎

  2. 85 个 token 是多少个单词? 在查看平均用户请求 token 使用量时,我发现数字低至 20,高至 >100。我想概括的是,有更多的请求接近 100,并且假设这些请求可能更接近完整的句子,并指经过深思熟虑的提示以及向 bot 提出的许多问题 ↩︎

9 个赞

我们最近与一位客户分享了以下信息,他询问了在 Meta 中使用 AI 搜索以及其成本:

上个月我们在 Meta 中进行了 1104 次搜索

  • GPT-4o-mini 定价,成本为 0.25 美元
  • 使用 haiku 的成本为 0.53 美元
  • Gemini Flash 的成本为 0.06 美元

我们必须关注 request tokens(约 85868 个)和 response tokens(约 408417 个)来自 LLM。

3 个赞

Meta 中图像字幕一个月的估计费用

  • 1019 次调用
  • 5500 万个请求 token
  • 3.4 万个响应 token

根据不同的 LLM,费用如下:

  • Claude Haiku 3:13.86 美元
  • GPT-4o Mini:8.31 美元
  • Gemini 1.5 Flash 8B:2.07 美元
5 个赞