Error interno del servidor de Discourse AI con ollama local

He descubierto que el modelo era el problema. Usar qwen2.5:3b con Groq como proveedor y QwenTokenizer hace que la prueba sea exitosa.

3 Me gusta