Discourse AI 搭配本地 ollama 内部服务器错误

您好。我已经阅读了 Local Ollama is not working with the Pluginhttps://meta.discourse.org/t/getting-discourse-ai-to-work-with-ollama-locally/353614,并且在我的 app.yml 中有以下环境配置:

  DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"

我可以通过以下命令确认:

> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1

并且我可以从 LLM 获得响应。

> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%

这是我正在使用的配置,但我无法使其工作。

测试以 Internal Server Error 失败,并且我可以在 /logs 中看到错误:

NameError (undefined local variable or method `tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'

我还需要做些什么才能使其工作?谢谢。

1 个赞

我发现问题出在模型上。使用 Groq 作为提供商和 QwenTokenizer 配合 qwen2.5:3b 使测试成功。

1 个赞