Resumir tema con cargas de IA indefinidamente, ¿recibido payload JSON inválido?

Hola, recientemente he notado que la función de Resumen de temas en mi foro parece haber dejado de funcionar por completo, con solicitudes para generar un resumen de tema que se quedan colgadas indefinidamente. Cabe destacar que las otras herramientas de IA del sitio funcionan correctamente, como Gists de resumen y Asistente de composición de IA.

A continuación, se muestra una imagen del modal de Resumen de temas aparentemente colgado:

Aquí hay una entrada de registro que parece estar relacionada:

DiscourseAi::Completions::Endpoints::Gemini: status: 400 - body: {
  "error": {
    "code": 400,
    "message": "Valor inválido en 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \"json_schema\"\nCarga útil JSON inválida recibida. Nombre desconocido \"json_schema\" en 'generation_config.response_schema': No se puede encontrar el campo.",
    "status": "INVALID_ARGUMENT",
    "details": [
      {
        "@type": "type.googleapis.com/google.rpc.BadRequest",
        "fieldViolations": [
          {
            "field": "generation_config.response_schema.type",
            "description": "Valor inválido en 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \"json_schema\""
          },
          {
            "field": "generation_config.response_schema",
            "description": "Carga útil JSON inválida recibida. Nombre desconocido \"json_schema\" en 'generation_config.response_schema': No se puede encontrar el campo."
          }
        ]
      }
    ]
  }
}

¿Alguien más se ha encontrado con este problema o tiene alguna idea sobre cómo resolverlo? Gracias de antemano.

¿Qué modelo estás usando?

1 me gusta

Actualmente estoy usando Gemini 2.0 Flash, nivel gratuito.

1 me gusta

¿Puedes intentar configurar el proveedor en “OpenAI” y el endpoint en https://generativelanguage.googleapis.com/v1beta/chat/completions?

1 me gusta

He seguido los pasos que me has indicado y puedo confirmar que el LLM funciona como se esperaba. ¡Gracias!

1 me gusta

Muy contento de que se haya resuelto, pero sigo pensando que hay un error aquí que deberíamos solucionar @Falco / @Roman

Las cosas deberían tal vez recurrir a un fallback si por alguna razón un modelo dice que devolverá JSON pero no lo hace. Esta es un área que deberíamos evaluar.

1 me gusta

Oh, definitivamente, quería ayudar a aislarlo en la API de Google en lugar del modelo para que podamos trabajar en una solución esta semana.

4 Me gusta

El error de Gemini se corrigió en:

Se esperaba un formato ligeramente diferente para el esquema JSON. Además, ahora trataremos la finalización como texto plano si el modelo no devuelve JSON válido cuando se le solicita.

5 Me gusta

Este tema se cerró automáticamente después de 2 días. Ya no se permiten nuevas respuestas.