Erro interno do servidor do Discourse AI com ollama local

Descobri que o modelo era o problema. Usar qwen2.5:3b com Groq como provedor e QwenTokenizer faz o teste ser bem-sucedido.

3 curtidas