نعم، المكون الإضافي محايد تمامًا تجاه المزود، يمكنك استخدامه مع نموذج لغة كبير (LLM) محلي مباشرةً.
Falco
(Falco)
2
الموضوعات ذات الصلة
| الموضوع | الردود | مرات العرض | النشاط | |
|---|---|---|---|---|
| Getting discourse ai to work with ollama locally | 15 | 509 | 6 أبريل 2025 | |
| Discourse AI with local ollama Internal Server Error | 2 | 72 | 28 ديسمبر 2025 | |
| How to configure Discourse to use a locally installed LLM? | 8 | 273 | 17 سبتمبر 2025 | |
| Discourse AI plugin: missing model discovery & sensible defaults (any plans or community plugins?) | 4 | 75 | 3 فبراير 2026 | |
| Create custom LLM plugin or any other option? | 4 | 173 | 25 فبراير 2025 |