Résumé du sujet avec IA charge indéfiniment, Payload JSON invalide reçu ?

Bonjour, j’ai récemment remarqué que la fonction Résumé de sujet de mon forum semble avoir cessé de fonctionner entièrement, les requêtes pour générer un résumé de sujet restant indéfiniment en attente. Il est à noter que les autres outils d’IA sur le site fonctionnent correctement, tels que les Gists de résumé et l’assistant de composition IA.

Ci-dessous une image de la fenêtre modale de résumé de sujet qui semble bloquée :

Voici une entrée de journal qui semble liée :

DiscourseAi::Completions::Endpoints::Gemini: status: 400 - body: {
  "error": {
    "code": 400,
    "message": "Valeur invalide dans 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \\\"json_schema\\\"\\nCharge utile JSON invalide reçue. Nom inconnu \\\"json_schema\\\" dans 'generation_config.response_schema' : Champ introuvable.",
    "status": "INVALID_ARGUMENT",
    "details": [
      {
        "@type": "type.googleapis.com/google.rpc.BadRequest",
        "fieldViolations": [
          {
            "field": "generation_config.response_schema.type",
            "description": "Valeur invalide dans 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \\\"json_schema\\\""
          },
          {
            "field": "generation_config.response_schema",
            "description": "Charge utile JSON invalide reçue. Nom inconnu \\\"json_schema\\\" dans 'generation_config.response_schema' : Champ introuvable."
          }
        ]
      }
    ]
  }
}

Quelqu’un d’autre a-t-il rencontré ce problème ou a une idée sur la façon de le résoudre ? Merci d’avance.

Quel modèle utilisez-vous ?

1 « J'aime »

J’utilise actuellement Gemini 2.0 Flash, niveau gratuit.

1 « J'aime »

Pouvez-vous essayer de définir le fournisseur sur « OpenAI » et le point de terminaison sur https://generativelanguage.googleapis.com/v1beta/chat/completions ?

1 « J'aime »

J’ai suivi les étapes que vous m’avez données et je peux confirmer que le LLM fonctionne maintenant comme prévu. Merci !

1 « J'aime »

Très heureux que ce soit résolu, mais je pense toujours qu’il y a un bug ici que nous devrions régler @Falco / @Roman

Les choses devraient peut-être se replier si, pour une raison quelconque, un modèle dit qu’il renverra du JSON mais ne le fait pas. C’est un domaine que nous devrions évaluer.

1 « J'aime »

Oh absolument, je voulais aider à l’isoler à l’API Google au lieu du modèle afin que nous puissions travailler sur une solution cette semaine.

4 « J'aime »

L’erreur Gemini a été corrigée dans :

Elle s’attendait à un format légèrement différent pour le schéma JSON. De plus, nous traiterons désormais la complétion comme du texte brut si le modèle ne renvoie pas de JSON valide lorsqu’on le lui demande.

5 « J'aime »

Ce sujet a été automatiquement fermé après 2 jours. Les nouvelles réponses ne sont plus autorisées.