Bien que cela soit possible, héberger à la fois un LLM complet et Discourse sur le Pi laissera très probablement des performances insatisfaisantes pour les deux.
Falco
(Falco)
9
Sujets connexes
| Sujet | Réponses | Vues | Activité | |
|---|---|---|---|---|
| Discourse on a Raspberry Pi | Blog | 62 | 6513 | Octobre 8, 2024 | |
| Getting discourse ai to work with ollama locally | 15 | 509 | Avril 6, 2025 | |
| Self-Hosting an OpenSource LLM for DiscourseAI | 7 | 3589 | Janvier 20, 2026 | |
| Discourse AI with local ollama Internal Server Error | 2 | 72 | Décembre 28, 2025 | |
| Hosting Discourse on a Raspberry Pi? | 38 | 7421 | Décembre 7, 2021 |