خطأ خادم داخلي في Discourse AI مع ollama المحلي

مرحباً. لقد قرأت بالفعل Local Ollama is not working with the Plugin و https://meta.discourse.org/t/getting-discourse-ai-to-work-with-ollama-locally/353614، ولدي البيئة التالية في ملف app.yml الخاص بي:

  DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"

يمكنني تأكيد ذلك بالأمر التالي:

> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1

ويمكنني الحصول على استجابة من نموذج اللغة الكبير (LLM).

> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%

هذا هو الإعداد الذي أستخدمه، ولكني لا أستطيع جعله يعمل.

يفشل الاختبار بـ Internal Server Error (خطأ خادم داخلي)، ويمكنني رؤية الخطأ في /logs

NameError (undefined local variable or method `tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'

ما الذي يجب أن أفعله أكثر لكي يعمل؟ شكراً لك.

إعجاب واحد (1)

لقد اكتشفت أن المشكلة كانت في النموذج. استخدام qwen2.5:3b مع Groq كمزود و QwenTokenizer يجعل الاختبار ناجحًا.

إعجاب واحد (1)