Wie konfiguriere ich Discourse, um ein lokal installiertes LLM zu verwenden?

Kompromisslos

  • DeepSeek V3 0324
  • Qwen 3 235B A22

Ausgewogen

  • Qwen 3 32B / 30B A3B
  • Llama 3.3 70B
  • Qwen 2.5 70B

Leichtgewichtig

Vielleicht unsloth/gemma-3-4b-it-qat-GGUF · Hugging Face? Es ist auf diesem Niveau schwierig, viel wirtschaftlicher ist die Nutzung einer gehosteten API wie OpenRouter.

4 „Gefällt mir“