虽然有可能,但在树莓派上同时托管一个完整的 LLM 和 Discourse 可能会导致两者的性能都不尽如人意。
Falco
(Falco)
9
相关话题
| 话题 | 回复 | 浏览量 | 活动 | |
|---|---|---|---|---|
| Discourse on a Raspberry Pi | Blog | 62 | 6513 | 2024 年10 月 8 日 | |
| Getting discourse ai to work with ollama locally | 15 | 509 | 2025 年4 月 6 日 | |
| Self-Hosting an OpenSource LLM for DiscourseAI | 7 | 3589 | 2026 年1 月 20 日 | |
| Discourse AI with local ollama Internal Server Error | 2 | 72 | 2025 年12 月 28 日 | |
| Hosting Discourse on a Raspberry Pi? | 38 | 7421 | 2021 年12 月 7 日 |