Yes, the plugin is completely provider agnostic, you may use it with a local LLM out of the box.
Falco
(Falco)
2
נושאים קשורים
| נושא | תגובות | צפיות | פעילות | |
|---|---|---|---|---|
| Getting discourse ai to work with ollama locally | 15 | 542 | 6 באפריל, 2025 | |
| Discourse AI with local ollama Internal Server Error | 2 | 85 | 28 בדצמבר, 2025 | |
| How to configure Discourse to use a locally installed LLM? | 8 | 284 | 17 בספטמבר, 2025 | |
| Discourse AI plugin: missing model discovery & sensible defaults (any plans or community plugins?) | 4 | 83 | 3 בפברואר, 2026 | |
| Create custom LLM plugin or any other option? | 4 | 176 | 25 בפברואר, 2025 |