Erreur interne du serveur Discourse AI avec ollama local

J’ai découvert que le modèle était le problème. L’utilisation de qwen2.5:3b avec Groq comme fournisseur et QwenTokenizer fait réussir le test.

3 « J'aime »