Débogage des fonctionnalités IA de Discourse : quand OpenAI répond mais le forum ne répond pas

Merci d’avoir développé des fonctions d’IA pour Discourse ! Je pense que ce sera une fonctionnalité importante à l’avenir.

J’ai essayé d’utiliser le plugin d’IA sur notre forum auto-hébergé (tff-forum.de). Après avoir ajouté la clé API OpenAI dans le panneau d’administration et activé le modèle « gpt-3.5-turbo-16k » pour les différentes fonctions, je vois les boutons d’IA supplémentaires à différents endroits du forum.

Lorsque je clique sur l’un des boutons, soit je n’obtiens rien en retour, soit le message d’erreur montré sur la capture d’écran suivante s’affiche.

Je peux voir les requêtes API dans le tableau de bord d’utilisation d’OpenAI, mais il semble que Discourse ne reçoive pas la réponse.

J’ai également essayé les autres modèles (gpt-35, gpt-4, etc.). Le résultat est toujours le même : les fonctions ne fournissent aucune réponse.

Le journal d’erreurs de Discourse ne montre aucun problème concernant les fonctions d’IA.

Pouvez-vous s’il vous plaît fournir des informations supplémentaires sur la façon de déboguer ou d’analyser le problème ?

Essayez l’instruction ci-dessous sur votre serveur, s’il vous plaît.

1 « J'aime »

Merci pour le script permettant de vérifier la fonctionnalité de l’API Open AI.

Nous avons lancé le script sur notre serveur et obtenu la réponse suivante de gpt :

...
 {
 "index": 0,
 "message": {
 "role": "assistant",
 "content": "Au cœur de la rime codée,\nVoici un concept sublime.\nC'est la récursion, un art, une tradition ancienne,\nD'une fonction qui s'appelle elle-même, telle est la mission.\n\nUne fonction si fière, n'écoutera pas l'appel,\nDe quiconque d'autre, elle se dresse fièrement.\nElle choisit de s'invoquer à nouveau,\nAinsi, tissant des motifs qui intriguent la vue.\n\nQuand elle commence, on pourrait supposer,\nOù elle finit, nul ne le sait?\nMais ne craignez pas la boucle infinie,\nCar le cas de base est notre cerceau de sauvetage.\n\nEn atteignant la base si divinement petite,\nLa fonction finit par s'arrêter.\nDonc, elle s'arrête et ne se lie pas,\nRetournant ce qu'elle est censée trouver.\n\nQui ferait un appel si sincère?\nUne manière élégante de conclure l'affaire.\nRésoudre des labyrinthes, ou inverser des chaînes,\nVoyez la récursion déployer ses ailes.\n\nChaque instance a sa pile de mémoire,\nPour retracer son chemin, de l'avant à l'arrière.\nEt à mesure que ces instances grandissent,\nUne tour de mémoire, elles confèrent.\n\nQuand c'est bien fait, l'harmonie est pure,\nLe charme de la récursion, une véritable attraction.\nC'est l'élégance, c'est une profonde autonomie,\nUn joyau dans la couronne de la cérémonie des algorithmes.\n\nC'est une danse, c'est un jeu, une reprise éternelle,\nDans le théâtre des codes, où réside la récursion.\nAdmirez la beauté, admirez l'excursion,\nDans le vaste royaume du code, c'est la récursion."
 },
 "logprobs": null,
 "finish_reason": "stop"
 }
 ],
 "usage": {
 "prompt_tokens": 39,
 "completion_tokens": 282,
 "total_tokens": 321
 },
 "system_fingerprint": null
}

Cet appel semble fonctionner. Mais lorsque j’active les fonctions d’IA Discourse (par exemple, « assistant IA de composition ») en utilisant la même clé API Open AI, je n’obtiens aucune réponse ou le message d’erreur montré dans le premier post de ce fil.

Existe-t-il d’autres possibilités pour déboguer les appels API Open AI ?

Avez-vous mis à jour vers la dernière version ? Nous avons déplacé la configuration du LLM dans sa propre section.

1 « J'aime »

Merci pour votre soutien. Nous avons commencé une reconstruction aujourd’hui et maintenant les fonctions basées sur l’API Open AI semblent fonctionner.

Maintenant, j’ai constaté un nouveau problème. Après la reconstruction, je ne suis plus en mesure de changer le modèle open AI dans les paramètres d’administration. La liste semble vide mais Discourse utilise toujours mon dernier réglage “gpt-4o”.

image

Est-ce un problème déjà connu ? Pensez-vous qu’une autre reconstruction pourrait le résoudre ?

Désolé, j’ai trouvé la raison de mon problème. Comme vous l’avez mentionné, les LLM ont maintenant une section distincte dans les paramètres d’administration.

Après avoir défini les LLM OpenAI, je peux maintenant sélectionner les modèles pour les différentes fonctions d’IA.

1 « J'aime »

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.