Hallo. Ich habe bereits Local Ollama is not working with the Plugin und Getting discourse ai to work with ollama locally gelesen und habe die folgende Umgebung in meiner app.yml:
DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"
Ich kann dies mit dem folgenden Befehl bestätigen:
> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1
Und ich kann eine Antwort von der LLM erhalten.
> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%
Dies ist die Konfiguration, die ich verwende, aber ich kann sie nicht zum Laufen bringen.
Der Test schlägt mit Internal Server Error fehl, und ich kann den Fehler unter /logs sehen
NameError (undefined local variable or method `tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'
Was muss ich noch tun, damit es funktioniert? Vielen Dank.
