我遵循了官方教程来配置 Discourse AI 进行翻译,并将其设置为在几天内翻译所有过往帖子。确实,这导致了大量的输入和输出 token。然而,两天后,我遇到了一个情况,只有输入 token 被处理,而没有任何输出。我不确定原因——会不会是所有过往帖子都已经翻译完了?如果是这样,我能采取哪些措施来减少 token 输入,从而节省成本?
嘿,你是否遵循了这些建议?
使用情况图表确实令人担忧。你能尝试运行这个数据探索器查询吗:
SELECT
a.id,
a.language_model,
LENGTH(p.raw) as raw_length,
a.response_tokens,
a.raw_request_payload,
a.raw_response_payload,
a.topic_id,
a.post_id
FROM ai_api_audit_logs a
LEFT JOIN posts p ON p.id = a.post_id AND p.deleted_at IS NULL
LEFT JOIN topics t ON t.id = a.topic_id AND t.deleted_at IS NULL
WHERE a.created_at > CURRENT_DATE - INTERVAL '1 days'
AND p.deleted_at IS NULL
AND t.deleted_at IS NULL
AND p.user_deleted = false
AND a.feature_name = 'translation'
AND LENGTH(p.raw) < 1000
AND a.response_tokens > 10000
ORDER BY a.created_at DESC
LIMIT 100
该查询应显示基于帖子原始长度的响应令牌数量。理想情况下,您应该看到相似的数量,不超过 1.5 倍的令牌。AiApiAuditLog 将有助于确定正在发生什么。
此外,请分享:
- 您正在使用什么模型?
- 您的回填费率是多少?我建议将其保持在较低的值,例如开始时为 50。
- 您支持多少种语言?您选择的模型支持它们吗?
我已将 GPT-4.1 Nano 配置为翻译模型。之前的每小时回填率为 1,000,但今天我已将其调整为 100。我已经启用了对日语和英语的支持,并且此模型确实支持这些语言。
是的,1000可能不是个好主意,我应该在这里添加一个站点设置限制。
我不确定OpenAI API如何处理每小时约3000次的请求。基本上,对于您的设置,我们每个帖子执行:1次语言检测,2次翻译成日语,3次翻译成英语。
我建议仍然将其降低到50,看看效果如何。
在不久的将来,我们还将实施一种查看整个站点翻译进度的方法。
1 个赞
嗯,这个查询应该可以工作。您有 discourse-data-explorer 插件吗?
很好,我先试试。谢谢。
我稍后会安装它,然后再试一次。目前,重建论坛是不可行的,因为用户仍在积极使用它。


