Hallo Leute, ich habe mein Plugin aktualisiert, aber GPT 3.5 Turbo funktioniert immer noch nicht
There was a typo in the list of available models. Should be fixed via:
Nachricht (3 Kopien gemeldet)
Fehler beim Ausführen des LLM-Berichts! : DiscourseAi::Completions::Llm::UNKNOWN_MODEL : DiscourseAi::Completions::Llm::UNKNOWN_MODEL
Backtrace
/var/www/discourse/plugins/discourse-ai/lib/completions/dialects/dialect.rb:27:in `dialect_for'
/var/www/discourse/plugins/discourse-ai/lib/completions/llm.rb:64:in `proxy'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:67:in `initialize'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:33:in `new'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:33:in `run!'
/var/www/discourse/plugins/discourse-ai/discourse_automation/llm_report.rb:75:in `block (2 levels) in <main>'
/var/www/discourse/plugins/discourse-automation/app/models/discourse_automation/automation.rb:135:in `trigger!'
/var/www/discourse/plugins/discourse-automation/app/jobs/regular/discourse_automation_trigger.rb:13:in `execute'
/var/www/discourse/app/jobs/base.rb:297:in `block (2 levels) in perform'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rails_multisite-5.0.0/lib/rails_multisite/connection_management.rb:82:in `with_connection'
1 „Gefällt mir“
Roman
(Roman Rizzi)
1. Februar 2024 um 11:26
2
Hallo @whitewaterdeu - Ich vermute, Ihr Automatisierungsskript verwendet möglicherweise immer noch den falschen Modellnamen (gpt-3-5-turbo). Würden Sie den Modellnamen in den Skripteinstellungen auf gpt-3.5-turbo aktualisieren?
Danke , ich habe zu gpt-3.5-turbo gewechselt und es hat funktioniert, aber ein weiterer Fehler ist aufgetreten.
Es scheint, als müsste ich die an OpenAI gesendeten Tokens reduzieren, aber ich weiß nicht, wie das geht.
Nachricht
DiscourseAi::Completions::Endpoints::OpenAi: Status: 400 - Body: {
"error": {
"message": "Die maximale Kontextlänge dieses Modells beträgt 4097 Tokens. Ihre Nachrichten haben jedoch 5605 Tokens ergeben. Bitte reduzieren Sie die Länge der Nachrichten.",
"type": "invalid_request_error",
"param": "messages",
"code": "context_length_exceeded"
}
}
Backtrace
/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:91:in `block (2 levels) in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2353:in `block in transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http/response.rb:320:in `reading_body'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2352:in `transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2306:in `request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:19:in `block in request_with_mini_profiler'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/mini_profiler/profiling_methods.rb:50:in `step'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:18:in `request_with_mini_profiler'
/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:89:in `block in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:1570:in `start'
Roman
(Roman Rizzi)
1. Februar 2024 um 15:05
4
Das können Sie nicht tun. Wir sollten den Inhalt automatisch kürzen, damit er in das Kontextfenster passt. Muss ein Fehler in unserem Code sein.
Während wir dieses Problem lösen, könnten Sie zu gpt-4 wechseln, das die doppelte Kontextlänge hat.
3 „Gefällt mir“
sam
(Sam Saffron)
24. April 2025 um 05:06
6
Schließung wegen Veralten, GPT-3.5 sollte nicht mehr verwendet werden, die überwiegende Mehrheit der Modelle wird jetzt mit sehr großem Kontextfenster ausgeliefert.