请参阅 https://meta.discourse.org/t/discourse-ai-large-language-model-llm-settings-page/319903。另请参阅 Getting discourse ai to work with ollama locally 和 https://meta.discourse.org/t/self-hosting-an-opensource-llm-for-discourseai/290923。
相关话题
| 话题 | 回复 | 浏览量 | 活动 | |
|---|---|---|---|---|
| Getting discourse ai to work with ollama locally | 15 | 477 | 2025 年4 月 6 日 | |
| Discourse AI with local ollama Internal Server Error | 2 | 64 | 2025 年12 月 28 日 | |
| How to configure Discourse to use a locally installed LLM? | 8 | 251 | 2025 年9 月 17 日 | |
| Discourse AI plugin: missing model discovery & sensible defaults (any plans or community plugins?) | 4 | 72 | 2026 年2 月 3 日 | |
| Create custom LLM plugin or any other option? | 4 | 159 | 2025 年2 月 25 日 |