Discourse AI mit lokalem ollama Interner Serverfehler

Ich habe herausgefunden, dass das Modell das Problem war. Die Verwendung von qwen2.5:3b mit Groq als Anbieter und QwenTokenizer lässt den Test erfolgreich durchlaufen.

3 „Gefällt mir“