Hola, recientemente he notado que la función de Resumen de temas en mi foro parece haber dejado de funcionar por completo, con solicitudes para generar un resumen de tema que se quedan colgadas indefinidamente. Cabe destacar que las otras herramientas de IA del sitio funcionan correctamente, como Gists de resumen y Asistente de composición de IA.
A continuación, se muestra una imagen del modal de Resumen de temas aparentemente colgado:
Aquí hay una entrada de registro que parece estar relacionada:
DiscourseAi::Completions::Endpoints::Gemini: status: 400 - body: {
"error": {
"code": 400,
"message": "Valor inválido en 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \"json_schema\"\nCarga útil JSON inválida recibida. Nombre desconocido \"json_schema\" en 'generation_config.response_schema': No se puede encontrar el campo.",
"status": "INVALID_ARGUMENT",
"details": [
{
"@type": "type.googleapis.com/google.rpc.BadRequest",
"fieldViolations": [
{
"field": "generation_config.response_schema.type",
"description": "Valor inválido en 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \"json_schema\""
},
{
"field": "generation_config.response_schema",
"description": "Carga útil JSON inválida recibida. Nombre desconocido \"json_schema\" en 'generation_config.response_schema': No se puede encontrar el campo."
}
]
}
]
}
}
¿Alguien más se ha encontrado con este problema o tiene alguna idea sobre cómo resolverlo? Gracias de antemano.
Falco
(Falco)
10 Mayo, 2025 14:18
3
¿Qué modelo estás usando?
1 me gusta
Actualmente estoy usando Gemini 2.0 Flash, nivel gratuito.
1 me gusta
Falco
(Falco)
11 Mayo, 2025 23:25
5
¿Puedes intentar configurar el proveedor en “OpenAI” y el endpoint en https://generativelanguage.googleapis.com/v1beta/chat/completions?
1 me gusta
He seguido los pasos que me has indicado y puedo confirmar que el LLM funciona como se esperaba. ¡Gracias!
1 me gusta
sam
(Sam Saffron)
12 Mayo, 2025 02:12
7
Muy contento de que se haya resuelto, pero sigo pensando que hay un error aquí que deberíamos solucionar @Falco / @Roman
Las cosas deberían tal vez recurrir a un fallback si por alguna razón un modelo dice que devolverá JSON pero no lo hace. Esta es un área que deberíamos evaluar.
1 me gusta
Falco
(Falco)
12 Mayo, 2025 02:47
8
Oh, definitivamente, quería ayudar a aislarlo en la API de Google en lugar del modelo para que podamos trabajar en una solución esta semana.
4 Me gusta
Roman
(Roman Rizzi)
16 Mayo, 2025 12:24
10
El error de Gemini se corrigió en:
main ← structured_output_differences
opened 02:09PM - 15 May 25 UTC
This change fixes two bugs and adds a safeguard.
The first issue is that the … schema Gemini expected differed from the one sent, resulting in 400 errors when performing completions.
The second issue was that creating a new persona won't define a method for `response_format`. This has to be explicitly defined when we wrap it inside the Persona class. Also, There was a mismatch between the default value and what we stored in the DB. Some parts of the code expected symbols as keys and others as strings.
Finally, we add a safeguard when, even if asked to, the model refuses to reply with a valid JSON. In this case, we are making a best-effort to recover and stream the raw response.
Se esperaba un formato ligeramente diferente para el esquema JSON. Además, ahora trataremos la finalización como texto plano si el modelo no devuelve JSON válido cuando se le solicita.
5 Me gusta
Roman
(Roman Rizzi)
Cerrado
19 Mayo, 2025 11:00
11
Este tema se cerró automáticamente después de 2 días. Ya no se permiten nuevas respuestas.