Após mudar para o modelo Ollama 3.1 3B, que não usa raciocínio, agora estou vendo um erro totalmente diferente:
DiscourseAi::Completions::Endpoints::OpenAi: status: 400 - body: {“error”:{“message”:“Este modelo não suporta o formato de resposta
json_schema. Consulte os modelos suportados em Structured Outputs - GroqDocs”}}
Estou um pouco perdido sobre como prosseguir. Qual modelo é adequado para traduções no Discourse?