مرحباً. لقد قرأت بالفعل Local Ollama is not working with the Plugin و https://meta.discourse.org/t/getting-discourse-ai-to-work-with-ollama-locally/353614، ولدي البيئة التالية في ملف app.yml الخاص بي:
DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"
يمكنني تأكيد ذلك بالأمر التالي:
> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1
ويمكنني الحصول على استجابة من نموذج اللغة الكبير (LLM).
> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%
هذا هو الإعداد الذي أستخدمه، ولكني لا أستطيع جعله يعمل.
يفشل الاختبار بـ Internal Server Error (خطأ خادم داخلي)، ويمكنني رؤية الخطأ في /logs
NameError (undefined local variable or method `tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'
ما الذي يجب أن أفعله أكثر لكي يعمل؟ شكراً لك.
