GPT 3.5 Turbo funktioniert immer noch nicht für KI-Periodenberichte

Hallo Leute, ich habe mein Plugin aktualisiert, aber GPT 3.5 Turbo funktioniert immer noch nicht

Nachricht (3 Kopien gemeldet)

Fehler beim Ausführen des LLM-Berichts! : DiscourseAi::Completions::Llm::UNKNOWN_MODEL : DiscourseAi::Completions::Llm::UNKNOWN_MODEL

Backtrace

/var/www/discourse/plugins/discourse-ai/lib/completions/dialects/dialect.rb:27:in `dialect_for'
/var/www/discourse/plugins/discourse-ai/lib/completions/llm.rb:64:in `proxy'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:67:in `initialize'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:33:in `new'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:33:in `run!'
/var/www/discourse/plugins/discourse-ai/discourse_automation/llm_report.rb:75:in `block (2 levels) in <main>'
/var/www/discourse/plugins/discourse-automation/app/models/discourse_automation/automation.rb:135:in `trigger!'
/var/www/discourse/plugins/discourse-automation/app/jobs/regular/discourse_automation_trigger.rb:13:in `execute'
/var/www/discourse/app/jobs/base.rb:297:in `block (2 levels) in perform'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rails_multisite-5.0.0/lib/rails_multisite/connection_management.rb:82:in `with_connection'
1 „Gefällt mir“

Hallo @whitewaterdeu :wave: - Ich vermute, Ihr Automatisierungsskript verwendet möglicherweise immer noch den falschen Modellnamen (gpt-3-5-turbo). Würden Sie den Modellnamen in den Skripteinstellungen auf gpt-3.5-turbo aktualisieren?

Danke :kissing_heart:, ich habe zu gpt-3.5-turbo gewechselt und es hat funktioniert, aber ein weiterer Fehler ist aufgetreten.

Es scheint, als müsste ich die an OpenAI gesendeten Tokens reduzieren, aber ich weiß nicht, wie das geht.

Nachricht

DiscourseAi::Completions::Endpoints::OpenAi: Status: 400 - Body: {
  "error": {
    "message": "Die maximale Kontextlänge dieses Modells beträgt 4097 Tokens. Ihre Nachrichten haben jedoch 5605 Tokens ergeben. Bitte reduzieren Sie die Länge der Nachrichten.",
    "type": "invalid_request_error",
    "param": "messages",
    "code": "context_length_exceeded"
  }
}


Backtrace

/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:91:in `block (2 levels) in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2353:in `block in transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http/response.rb:320:in `reading_body'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2352:in `transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2306:in `request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:19:in `block in request_with_mini_profiler'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/mini_profiler/profiling_methods.rb:50:in `step'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:18:in `request_with_mini_profiler'
/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:89:in `block in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:1570:in `start'

Das können Sie nicht tun. Wir sollten den Inhalt automatisch kürzen, damit er in das Kontextfenster passt. Muss ein Fehler in unserem Code sein.

Während wir dieses Problem lösen, könnten Sie zu gpt-4 wechseln, das die doppelte Kontextlänge hat.

3 „Gefällt mir“

Schließung wegen Veralten, GPT-3.5 sollte nicht mehr verwendet werden, die überwiegende Mehrheit der Modelle wird jetzt mit sehr großem Kontextfenster ausgeliefert.