Ollama 3.1 3B モデル(推論機能なし)に切り替えたところ、全く異なるエラーが表示されるようになりました。
DiscourseAi::Completions::Endpoints::OpenAi: status: 400 - body: {“error”:{“message”:“このモデルは
json_schema形式のレスポンスをサポートしていません。サポートされているモデルについては、Structured Outputs - GroqDocs を参照してください。”,“type”:“invalid_request_error”,“param”:“response_format”}}
次にどう進めればよいのか、少し困っています。Discourse で翻訳に適したモデルはどれでしょうか?