GPT 3.5 turbo ancora non funziona per i rapporti periodici di AI

Ciao ragazzi, ho aggiornato il mio plugin, ma GPT 3.5 turbo non funziona ancora

Message (3 copies reported)

Error running LLM report! : DiscourseAi::Completions::Llm::UNKNOWN_MODEL : DiscourseAi::Completions::Llm::UNKNOWN_MODEL

Backtrace

/var/www/discourse/plugins/discourse-ai/lib/completions/dialects/dialect.rb:27:in `dialect_for'
/var/www/discourse/plugins/discourse-ai/lib/completions/llm.rb:64:in `proxy'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:67:in `initialize'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:33:in `new'
/var/www/discourse/plugins/discourse-ai/lib/automation/report_runner.rb:33:in `run!'
/var/www/discourse/plugins/discourse-ai/discourse_automation/llm_report.rb:75:in `block (2 levels) in <main>'
/var/www/discourse/plugins/discourse-automation/app/models/discourse_automation/automation.rb:135:in `trigger!'
/var/www/discourse/plugins/discourse-automation/app/jobs/regular/discourse_automation_trigger.rb:13:in `execute'
/var/www/discourse/app/jobs/base.rb:297:in `block (2 levels) in perform'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rails_multisite-5.0.0/lib/rails_multisite/connection_management.rb:82:in `with_connection'
1 Mi Piace

Ciao @whitewaterdeu :wave: - Sospetto che il tuo script di automazione possa ancora utilizzare il nome del modello errato (gpt-3-5-turbo). Ti dispiacerebbe aggiornare il nome del modello nelle impostazioni dello script a gpt-3.5-turbo?

grazie :kissing_heart:, ho cambiato in gpt-3.5-turbo e ha funzionato, ma è apparso un altro bug

sembra che debba ridurre i token inviati a openai, ma non so come fare

Message

DiscourseAi::Completions::Endpoints::OpenAi: status: 400 - body: {
  "error": {
    "message": "La lunghezza massima del contesto di questo modello è di 4097 token. Tuttavia, i tuoi messaggi hanno prodotto 5605 token. Riduci la lunghezza dei messaggi.",
    "type": "invalid_request_error",
    "param": "messages",
    "code": "context_length_exceeded"
  }
}


Backtrace

/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:91:in `block (2 levels) in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2353:in `block in transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http/response.rb:320:in `reading_body'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2352:in `transport_request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:2306:in `request'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:19:in `block in request_with_mini_profiler'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/mini_profiler/profiling_methods.rb:50:in `step'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/rack-mini-profiler-3.3.0/lib/patches/net_patches.rb:18:in `request_with_mini_profiler'
/var/www/discourse/plugins/discourse-ai/lib/completions/endpoints/base.rb:89:in `block in perform_completion!'
/var/www/discourse/vendor/bundle/ruby/3.2.0/gems/net-http-0.4.1/lib/net/http.rb:1570:in `start'

Non puoi farlo. Dovremmo tagliare automaticamente il contenuto per farlo rientrare nella finestra di contesto. Deve essere un bug nel nostro codice.

Mentre risolviamo questo problema, potresti passare a gpt-4 che ha il doppio della finestra di contesto.

3 Mi Piace

Chiusura per inattività, GPT-3.5 non dovrebbe più essere utilizzato, la stragrande maggioranza dei modelli ora viene fornita con una finestra di contesto molto ampia.