Não tenho uma aba de LLM no meu dispositivo; só tenho estas opções na página principal de configurações de IA

Não tenho uma aba de LLM no meu dispositivo; só tenho estas opções na página principal de configurações de IA

Como sua instância foi instalada? Você está executando a versão mais recente do Discourse? Você pode tentar no modo de segurança sem nenhuma personalização?
Eu tentei o modo de segurança, mas nada funcionou. O software foi instalado em um Raspberry Pi 5 rodando Raspberry Pi OS Lite com Docker. Atualmente estou usando a versão 3.6.0.beta3-latest.
Você precisará atualizar para a versão mais recente como mínimo. O Discourse v2025.11.0-latest é a versão em que você deve estar.
obrigado, farei isso agora
ok como faço para atualizar para a versão mais recente
Se for uma instalação padrão baseada em docker, ./launcher rebuild app resolverá o problema.
Estou totalmente atualizado agora, obrigado amigo, mas como devo proceder agora para usar um dos meus modelos auto-hospedados no meu Raspberry Pi com o Ollama, se isso for mesmo possível?
Embora seja possível, hospedar tanto um LLM (Modelo de Linguagem Grande) completo quanto o Discourse no Pi provavelmente resultará em um desempenho insatisfatório para ambos.
Falco realmente faz isso
Tentei executar o Ollama em um Pi. Demorou tanto que desistiu de tentar conectar. A menos que você tenha muitos recursos, executar o Ollama em um Pi com 4 GB de RAM não é a melhor ideia. Não tenho certeza se a troca (swap) ajudaria muito.
Em uma nota semelhante, mas fora do tópico, na minha experiência, executar um ambiente de desenvolvimento do Discourse em um Pi com 4 GB de RAM sem swap em um cartão SD não funciona. Mas isso é outra história.