Bonjour. J’ai déjà lu Local Ollama is not working with the Plugin et Getting discourse ai to work with ollama locally, et j’ai l’environnement suivant dans mon app.yml
DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"
Je peux le confirmer avec la commande suivante :
> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1
Et je peux obtenir une réponse du LLM.
> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%
Ceci est la configuration que j’utilise, mais je n’arrive pas à la faire fonctionner.
Le test échoue avec une Internal Server Error (Erreur interne du serveur), et je peux voir l’erreur dans /logs
NameError (variable locale ou méthode `tokenizer' non définie pour une instance de DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'
Que dois-je faire de plus pour que cela fonctionne ? Merci.
