Discourse Meta
AIプラグインのオプションに関する問い合わせ
サポート
ai
Falco
(Falco)
2025 年 11 月 24 日午前 1:18
2
はい、このプラグインは完全にプロバイダーに依存しないため、すぐにローカルLLMで使用できます。
「いいね!」 4
トピックに投稿を表示
関連トピック
トピック
返信
表示
アクティビティ
Getting discourse ai to work with ollama locally
Support
ai
15
395
2025 年 4 月 6 日
Discourse AI with local ollama Internal Server Error
Bug
ai
2
38
2025 年 12 月 28 日
How to configure Discourse to use a locally installed LLM?
Support
ai
8
200
2025 年 9 月 17 日
Create custom LLM plugin or any other option?
Support
4
114
2025 年 2 月 25 日
Configuring OpenRouter language models
Integrations
ai
0
661
2024 年 12 月 10 日