pmusaraj さん、こんにちは。
ご返信ありがとうございます。一点だけ明確にさせてください。私は費用を節約するために最も安価な LLM モデルを使用しているのではありません。翻訳機能が実際にどのように機能するかをテストするために使用しているのです。モデルの選択は本質的な問題ではありません。
重要な点は、Mistral が 503 エラーを返した際、Discourse AI が管理者への何らの通知もなく、リトライキューもなしに翻訳を静かに破棄してしまうことです。どのトピックが見落とされたのかを知る方法もありません。私が提起しているのは、トークンのコストの問題ではなく、このユーザーエクスペリエンス(UX)上の問題です。
これがオープンソースであり、皆様ができる限りのサポートをしてくださっていることは理解しています。そのことには感謝しています。しかし、「期待値を調整してください」というのは、実際にテストを行い、バグを報告し、製品の改善に貢献しようとしている人にとって、少し意欲を削ぐ言葉に感じられます。
このスレッドを今後も追跡し、修正を心待ちにしています。
ありがとうございます。
Denis