嘿!很高兴能帮到你 ![]()
截至今日,每 100 万个 token 的成本从低到高排列如下:
Gemini 1.5 Flash
输入:$0.075
输出:$0.30
Claude 3.5 Haiku
输入:$0.80
输出:$4.00
Claude 3.5 Sonnet
输入:$3.00
输出:$15.00
GPT-4o
输入:$2.50
输出:$10.00
DeepSeek-R1
输入:$0.55
输出:$2.19
这里的 token 价格没有考虑 prompt caching,它可以大幅降低成本。此外,AI 社区似乎普遍认为 Claude 3.5 Sonnet 在代码生成方面比 OpenAI 的模型更稳定,尽管我认为它们的质量经常在两者之间摇摆。
尽管如此,DeepSeek-R1 显然是这里的赢家,它不仅性价比最高,而且总体上也是最好的。Chatbot Arena Leaderboard 也支持这一点,它的排名高于 o1:
昨天 DeepSeek 遭受了严重的网络攻击,这可能是导致其 API 无法使用的原因,但我刚刚再次测试过,现在它已经可以正常工作了。我还就那个问题开了一个帖子
至于隐私,DeepSeek 在其政策中明确指出,数据存储在中国(这完全违反了欧盟法律等),而且众所周知,中国共产党可以访问中国的所有公司数据。但如果这些都是公开数据,那又有什么关系呢,毕竟你的网站理论上也可以被抓取/挖掘。
幸运的是,这个模型是完全开源的,LLM 提供商也意识到了这一点。例如,fireworks.ai 已经提供了这个模型,尽管我认为他们定价过高,输入 8.00 美元/输出 8.00 美元。所以 DeepSeek API 确实非常经济实惠。
在我的社区中,我使用 GPT-4o-mini 配合 RAG(强制它在回复前阅读相关主题,以提供更具事实性/帮助性的答案)和严格的提示工程。它从未让我失望,而且价格非常便宜,输入 0.15 美元/输出 0.60 美元。但我不太信任它来编写代码——这肯定最好留给 o1-mini 或 DeepSeek-R1。通常,我社区中使用的 token 中有 1/3 到 1/2 的 token 被缓存(你可以在 /admin/plugins/discourse-ai/ai-usage 中看到),这进一步降低了我的成本,因为缓存的 token 便宜 50%。
因此,如果我的社区每天使用 200 万个输入 token 和 10 万个输出 token,我的大致成本是:
每日输入成本:约 0.22 美元
每日输出成本:约 0.06 美元
…乘以 30 天 = 每月约 6.60 美元的输入和约 1.8 美元的输出 = 8.40 美元。
这甚至还不够一顿午餐的钱。