Discourse AI とローカル ollama の内部サーバーエラー

こんにちは。Local Ollama is not working with the Plugin および Getting discourse ai to work with ollama locally はすでに確認済みで、app.yml に以下の環境設定があります。

  DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"

以下のコマンドで確認できます。

> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1

そして、LLMから応答を得ることができます。

> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%

これは使用している設定ですが、動作させることができません。

テストは Internal Server Error で失敗し、/logs でエラーを確認できます。

NameError (undefined local variable or method `tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'

動作させるためには、他に何をすべきでしょうか?ありがとうございます。

「いいね!」 1

モデルが問題であったことがわかりました。Groqをプロバイダーとして使用し、QwenTokenizerでqwen2.5:3bを使用すると、テストは成功します。

「いいね!」 1