Aunque es posible, alojar tanto un LLM completo como Discourse en la Pi probablemente le dejará con un rendimiento insatisfactorio para ambos.
Falco
(Falco)
9
Temas relacionados
| Tema | Respuestas | Vistas | Actividad | |
|---|---|---|---|---|
| Discourse on a Raspberry Pi | Blog | 62 | 6513 | 8 Octubre 2024 | |
| Getting discourse ai to work with ollama locally | 15 | 509 | 6 Abril 2025 | |
| Self-Hosting an OpenSource LLM for DiscourseAI | 7 | 3589 | 20 Enero 2026 | |
| Discourse AI with local ollama Internal Server Error | 2 | 72 | 28 Diciembre 2025 | |
| Hosting Discourse on a Raspberry Pi? | 38 | 7421 | 7 Diciembre 2021 |