はい、このプラグインは完全にプロバイダーに依存しないため、すぐにローカルLLMで使用できます。
Falco
(Falco)
2
関連トピック
| トピック | 返信 | 表示 | アクティビティ | |
|---|---|---|---|---|
| Getting discourse ai to work with ollama locally | 15 | 509 | 2025 年 4 月 6 日 | |
| Discourse AI with local ollama Internal Server Error | 2 | 72 | 2025 年 12 月 28 日 | |
| How to configure Discourse to use a locally installed LLM? | 8 | 273 | 2025 年 9 月 17 日 | |
| Discourse AI plugin: missing model discovery & sensible defaults (any plans or community plugins?) | 4 | 76 | 2026 年 2 月 3 日 | |
| Create custom LLM plugin or any other option? | 4 | 173 | 2025 年 2 月 25 日 |