Hola. Ya he leído Local Ollama is not working with the Plugin y Getting discourse ai to work with ollama locally, y tengo el siguiente entorno en mi app.yml
DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"
Puedo confirmarlo con el siguiente comando:
> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1
Y puedo obtener respuesta del LLM.
> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%
Esta es la configuración que estoy usando, pero no consigo que funcione.
La prueba falla con Internal Server Error, y puedo ver el error en /logs
NameError (variable o método local no definido `tokenizer' para una instancia de DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'
¿Qué más debo hacer para que funcione? Gracias.
