Salut @whitewaterdeu - Je soupçonne que votre script d’automatisation utilise peut-être encore le mauvais nom de modèle (gpt-3-5-turbo). Pourriez-vous mettre à jour le nom du modèle dans les paramètres du script en gpt-3.5-turbo ?
merci , j’ai changé pour gpt-3.5-turbo, et cela a fonctionné, mais un autre bug est apparu
il semble que je doive réduire les tokens envoyés à openai, mais je ne sais pas comment faire
Message
DiscourseAi::Completions::Endpoints::OpenAi: status: 400 - body: {
"error": {
"message": "La longueur maximale du contexte de ce modèle est de 4097 tokens. Cependant, vos messages ont abouti à 5605 tokens. Veuillez réduire la longueur des messages.",
"type": "invalid_request_error",
"param": "messages",
"code": "context_length_exceeded"
}
}
Backtrace
/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:91:in `block (2 levels) in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2353:in `block in transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http/response.rb:320:in `reading_body'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2352:in `transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2306:in `request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:19:in `block in request_with_mini_profiler'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/mini_profiler/profiling_methods.rb:50:in `step'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:18:in `request_with_mini_profiler'
/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:89:in `block in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:1570:in `start'
Vous ne pouvez pas faire ça. Nous devrions automatiquement réduire le contenu pour qu’il s’adapte à la fenêtre de contexte. Ce doit être un bug dans notre code.
Pendant que nous réglons ce problème, vous pourriez passer à gpt-4 qui a le double de la fenêtre de contexte.
Fermeture pour cause de obsolescence, GPT-3.5 ne devrait plus être utilisé, la grande majorité des modèles disposent désormais d’une très grande fenêtre de contexte.