Discourse AI con ollama locale Errore interno del server

Ho scoperto che il problema era il modello. Usare qwen2.5:3b con Groq come provider e QwenTokenizer fa sì che il test abbia successo.

3 Mi Piace