Riassumi l'argomento con AI che si carica indefinitamente, Payload JSON non valido ricevuto?

Ciao, recentemente ho notato che la funzione Riepilogo argomento sul mio forum sembra aver smesso di funzionare del tutto, con richieste di generazione di un riepilogo argomento che rimangono in sospeso indefinitamente. È degno di nota il fatto che gli altri strumenti AI sul sito funzionino correttamente, come Gist di riepilogo e Aiuto compositore AI.

Di seguito è riportata un’immagine della finestra di dialogo Riepilogo argomento apparentemente bloccata:

Ecco una voce di registro che sembra correlata:

DiscourseAi::Completions::Endpoints::Gemini: status: 400 - body: {
  "error": {
    "code": 400,
    "message": "Valore non valido in 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \"json_schema\"\nPayload JSON non valido ricevuto. Nome sconosciuto \"json_schema\" in 'generation_config.response_schema': Impossibile trovare il campo.",
    "status": "INVALID_ARGUMENT",
    "details": [
      {
        "@type": "type.googleapis.com/google.rpc.BadRequest",
        "fieldViolations": [
          {
            "field": "generation_config.response_schema.type",
            "description": "Valore non valido in 'generation_config.response_schema.type' (type.googleapis.com/google.ai.generativelanguage.v1beta.Type), \"json_schema\""
          },
          {
            "field": "generation_config.response_schema",
            "description": "Payload JSON non valido ricevuto. Nome sconosciuto \"json_schema\" in 'generation_config.response_schema': Impossibile trovare il campo."
          }
        ]
      }
    ]
  }
}

Qualcun altro ha riscontrato questo problema o ha un’idea su come risolverlo? Grazie in anticipo.

Che modello stai usando?

1 Mi Piace

Sto attualmente utilizzando Gemini 2.0 Flash, piano gratuito.

1 Mi Piace

Puoi provare a impostare il provider su “OpenAI” e l’endpoint su https://generativelanguage.googleapis.com/v1beta/chat/completions?

1 Mi Piace

Ho seguito i passaggi che mi hai dato e posso confermare che l’LLM ora funziona come previsto. Grazie!

1 Mi Piace

Sono molto felice che sia stato risolto, ma penso ancora che ci sia un bug qui che dovremmo risolvere @Falco / @Roman

Le cose dovrebbero forse tornare indietro se per qualsiasi motivo un modello dice che restituirà JSON ma non lo fa. Questa è un’area che dovremmo valutare.

1 Mi Piace

Oh, assolutamente, volevo aiutare a isolarlo all’API di Google invece che al modello in modo da poter lavorare su una correzione questa settimana.

4 Mi Piace

L’errore di Gemini è stato corretto in:

Si aspettava un formato leggermente diverso per lo schema JSON. Inoltre, ora tratteremo il completamento come testo normale se il modello non restituisce JSON valido quando richiesto.

5 Mi Piace

Questo argomento è stato automaticamente chiuso dopo 2 giorni. Non sono più consentite nuove risposte.