構造化された出力を使用すると、多くの小型モデルが翻訳中に無限ループに陥りやすくなるため、max_tokens を制限する必要がありました。
OpenAI Responses API の新しいバージョンでは、思考トークンをカウントせずに max_tokens が適用されるため、この問題は解決されると考えています。
構造化された出力を使用すると、多くの小型モデルが翻訳中に無限ループに陥りやすくなるため、max_tokens を制限する必要がありました。
OpenAI Responses API の新しいバージョンでは、思考トークンをカウントせずに max_tokens が適用されるため、この問題は解決されると考えています。