si je peux utiliser un modèle de langage local (LLM) comment dois-je faire
beitmenotyou
(Michael)
5
Sujets connexes
| Sujet | Réponses | Vues | Activité | |
|---|---|---|---|---|
| Getting discourse ai to work with ollama locally | 15 | 509 | Avril 6, 2025 | |
| Discourse AI with local ollama Internal Server Error | 2 | 72 | Décembre 28, 2025 | |
| How to configure Discourse to use a locally installed LLM? | 8 | 273 | Septembre 17, 2025 | |
| Discourse AI plugin: missing model discovery & sensible defaults (any plans or community plugins?) | 4 | 76 | Février 3, 2026 | |
| Create custom LLM plugin or any other option? | 4 | 173 | Février 25, 2025 |