Olá, recentemente notei que a função Resumo do Tópico no meu fórum aparentemente parou de funcionar completamente, com solicitações para gerar um resumo de tópico ficando pendentes indefinidamente. É notável que as outras ferramentas de IA no site estão funcionando corretamente, como Resumos de Gists e Auxiliar de Composição de IA.
Abaixo está uma imagem da janela de Resumo do Tópico aparentemente travada:
Aqui está uma entrada de log que parece estar relacionada:
DiscourseAi::Completions::Endpoints::Gemini: status: 400 - body: {
"error": {
"code": 400,
"message": "Valor inválido em 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \\\"json_schema\\\"\\nCarga útil JSON inválida recebida. Nome desconhecido \\\"json_schema\\\" em 'generation_config.response_schema': Não foi possível encontrar o campo.",
"status": "INVALID_ARGUMENT",
"details": [
{
"@type": "type.googleapis.com/google.rpc.BadRequest",
"fieldViolations": [
{
"field": "generation_config.response_schema.type",
"description": "Valor inválido em 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \\\"json_schema\\\""
},
{
"field": "generation_config.response_schema",
"description": "Carga útil JSON inválida recebida. Nome desconhecido \\\"json_schema\\\" em 'generation_config.response_schema': Não foi possível encontrar o campo."
}
]
}
]
}
}
Alguém mais já encontrou esse problema ou tem alguma ideia de como resolvê-lo? Agradeço antecipadamente.
Falco
(Falco)
Maio 10, 2025, 2:18pm
3
Qual modelo você está usando?
1 curtida
Estou usando o Gemini 2.0 Flash, plano gratuito.
1 curtida
Falco
(Falco)
Maio 11, 2025, 11:25pm
5
Você pode tentar definir o provedor como “OpenAI” e o endpoint como https://generativelanguage.googleapis.com/v1beta/chat/completions?
1 curtida
Segui os passos que você deu e posso confirmar que o LLM agora está funcionando como esperado. Obrigado!
1 curtida
sam
(Sam Saffron)
Maio 12, 2025, 2:12am
7
Muito feliz que foi resolvido, mas ainda acho que há um bug aqui que devemos resolver @Falco / @Roman
As coisas talvez devessem ter um fallback se, por qualquer motivo, um modelo disser que retornará JSON, mas não o fizer. Esta é uma área que devemos avaliar.
1 curtida
Falco
(Falco)
Maio 12, 2025, 2:47am
8
Ah, com certeza, eu queria ajudar a isolar isso para a API do Google em vez do modelo para que possamos trabalhar em uma correção esta semana.
4 curtidas
Roman
(Roman Rizzi)
Maio 16, 2025, 12:24pm
10
O erro do Gemini foi corrigido em:
main ← structured_output_differences
opened 02:09PM - 15 May 25 UTC
This change fixes two bugs and adds a safeguard.
The first issue is that the … schema Gemini expected differed from the one sent, resulting in 400 errors when performing completions.
The second issue was that creating a new persona won't define a method for `response_format`. This has to be explicitly defined when we wrap it inside the Persona class. Also, There was a mismatch between the default value and what we stored in the DB. Some parts of the code expected symbols as keys and others as strings.
Finally, we add a safeguard when, even if asked to, the model refuses to reply with a valid JSON. In this case, we are making a best-effort to recover and stream the raw response.
Ele esperava um formato ligeiramente diferente para o esquema JSON. Além disso, agora trataremos a conclusão como texto simples se o modelo não retornar JSON válido quando solicitado.
5 curtidas
Roman
(Roman Rizzi)
Fechado
Maio 19, 2025, 11:00am
11
Este tópico foi fechado automaticamente após 2 dias. Novas respostas não são mais permitidas.