Discourse Meta
AIプラグインのオプションに関する問い合わせ
サポート
ai
Falco
(Falco)
2025 年 11 月 24 日午前 1:18
2
はい、このプラグインは完全にプロバイダーに依存しないため、すぐにローカルLLMで使用できます。
「いいね!」 4
トピックに投稿を表示
関連トピック
トピック
返信
表示
アクティビティ
Getting discourse ai to work with ollama locally
Support
ai
15
406
2025 年 4 月 6 日
Discourse AI with local ollama Internal Server Error
Bug
ai
2
45
2025 年 12 月 28 日
How to configure Discourse to use a locally installed LLM?
Support
ai
8
203
2025 年 9 月 17 日
Create custom LLM plugin or any other option?
Support
4
117
2025 年 2 月 25 日
Configuring OpenRouter language models
Integrations
ai
0
680
2024 年 12 月 10 日