Erreur interne du serveur Discourse AI avec ollama local

Bonjour. J’ai déjà lu Local Ollama is not working with the Plugin et Getting discourse ai to work with ollama locally, et j’ai l’environnement suivant dans mon app.yml

  DISCOURSE_ALLOWED_INTERNAL_HOSTS: "localhost|127.0.0.1|172.17.0.1"

Je peux le confirmer avec la commande suivante :

> sudo docker exec -it app sh -lc 'env | grep INTERNAL'
DISCOURSE_ALLOWED_INTERNAL_HOSTS=localhost|127.0.0.1|172.17.0.1

Et je peux obtenir une réponse du LLM.

> sudo docker exec -it app sh -lc 'curl http://172.17.0.1:11434'
Ollama is running%

Ceci est la configuration que j’utilise, mais je n’arrive pas à la faire fonctionner.

Le test échoue avec une Internal Server Error (Erreur interne du serveur), et je peux voir l’erreur dans /logs

NameError (variable locale ou méthode `tokenizer' non définie pour une instance de DiscourseAi::Completions::Dialects::ChatGpt)
app/controllers/application_controller.rb:440:in `block in with_resolved_locale'

Que dois-je faire de plus pour que cela fonctionne ? Merci.

1 « J'aime »

J’ai découvert que le modèle était le problème. L’utilisation de qwen2.5:3b avec Groq comme fournisseur et QwenTokenizer fait réussir le test.

1 « J'aime »