Discourse AI mit lokalem ollama Interner Serverfehler

Hallo. Ich habe bereits Local Ollama is not working with the Plugin und Getting discourse ai to work with ollama locally gelesen und habe die folgende Umgebung in meiner app.yml:

  DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"

Ich kann dies mit dem folgenden Befehl bestätigen:

> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1

Und ich kann eine Antwort von der LLM erhalten.

> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%

Dies ist die Konfiguration, die ich verwende, aber ich kann sie nicht zum Laufen bringen.

Der Test schlägt mit Internal Server Error fehl, und ich kann den Fehler unter /logs sehen

NameError (undefined local variable or method `tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'

Was muss ich noch tun, damit es funktioniert? Vielen Dank.

1 „Gefällt mir“

Ich habe herausgefunden, dass das Modell das Problem war. Die Verwendung von qwen2.5:3b mit Groq als Anbieter und QwenTokenizer lässt den Test erfolgreich durchlaufen.

1 „Gefällt mir“