Yes
Whatever ENV you specify when you finally do you docker run on the image … will take.
Yes
Whatever ENV you specify when you finally do you docker run on the image … will take.
And doing those things at every boot of the container is reasonable?
Some people like this pattern, I do not, that is why rails introduces some super fancy locking around migrations to ensure they never run concurrently when a cluster of 20 app try to run migrations at the same time.
Some people just boot the same image and run the migrations in some out-of-band process.
But each container should still rake assets:precompile at least once?
Depends on how do you host those.
If you have a NFS share of some sort (like AWS EFS) or if you upload those to some object storage service that can only be done on bootstrap.
Obrigado a todos pelas respostas úteis. Tenho mais algumas perguntas sobre como fazer isso corretamente.
Estou tentando preparar um app.yaml mínimo para inicialização que contenha apenas as informações necessárias para a construção da imagem do contêiner. Algumas das informações ali são claramente destinadas à execução do contêiner — como os mounts de volume e as mapeamentos de portas. Mas não tenho certeza sobre as variáveis de ambiente. Acho que vou apenas tentar, mas essas variáveis de ambiente são usadas durante a construção do contêiner (injetadas no Dockerfile de alguma forma) ou apenas na execução do contêiner? Se for o último, vou garantir que elas acabem no arquivo de configuração do k8s apropriado.
Em segundo lugar, algumas pessoas aqui falaram sobre enviar a imagem para um repositório de contêiner privado. Isso é obrigatório? Por outras palavras — a imagem de construção contém alguma informação secreta que não deveria ser publicada em um repositório público como o Docker Hub? (Ainda não temos um repositório de contêiner privado e gostaria de evitar configurá-lo.)
Por fim, há uma configuração no app.yaml para controlar o nome do contêiner criado? É mais uma questão de acabamento, mas seria bom
.
Obrigado antecipadamente pela ajuda! (Desculpe por reativar um tópico antigo. Esta é a primeira pesquisa no Google ao buscar como instalar o Discourse no Kubernetes.)
@Geoffrey_Challen Você pode criar uma imagem com o repositório do Discourse e os plugins, instalar as gems do Ruby e outras dependências e enviá-la para um registro (como o DockerHub). Esse repositório seria agnóstico ao ambiente e poderia ser público (a menos que você inclua um plugin privado ou algo do tipo). Essa imagem base poderia ser usada em ambientes de staging e produção e até mesmo em projetos diferentes (se eles usarem os mesmos plugins).
Passos como a pré-compilação dos assets, a migração do banco de dados e a geração do certificado SSL devem ser executados na máquina de destino, no entanto, para gerar a imagem final.
Não sei exatamente como incluir isso em um cluster k8s, embora. Optei pela abordagem conservadora e a utilizei com base no guia oficial da equipe do Discourse, apenas separando em 2 etapas.
Não tenho certeza se entendi essa parte. Esses processos não acontecerão automaticamente dentro do contêiner, conforme necessário? Espero poder apenas fazer o push disso para nossa nuvem e nunca precisar acessar o shell da máquina — de forma semelhante ao fato de eu raramente (se é que alguma vez) precisar entrar no contêiner Docker do Discourse.
Você não precisa entrar explicitamente no container. O que quero dizer é que você não pode gerar uma imagem pré-compilada com eles (gerada em um pipeline de CI, por exemplo) e usá-la diretamente, pois isso deve ser executado na máquina de destino, onde o banco de dados está localizado (isso poderia ser automatizado, mas eu não fiz isso no k8s, embora tenha feito com Ansible).
Ah, OK. Estou usando os modelos all-in-one para incluir o banco de dados no container. Isso é adequado para nosso caso de uso, que envolve classes com 10 a 1000 alunos — pelo menos o all-in-one tem funcionado bem para minha turma nessa configuração. Então, o banco de dados está dentro do container.
Mas, de qualquer forma, o Discourse não executa as migrações do banco de dados ou outras etapas de configuração quando o container é iniciado?
Tem certeza de que o banco de dados está dentro do contêiner? Ou é o SGBD (neste caso, PostgreSQL)? A instalação suportada usa o banco de dados fora do contêiner (o que é esperado), mapeando um volume de dentro para fora (do host). Além disso, após uma reconstrução do contêiner, ele é recriado e você perderia todos os dados.
Se realmente estiver dentro do contêiner, não sei exatamente como você conseguiria fazer uma atualização com base na instalação oficial, pois o script launcher parece criar e destruir o contêiner várias vezes durante a reconstrução (e executa com --rm, o que significa que você perderia todos os seus dados, incluindo o banco de dados, após o contêiner parar).
Não tentei alterar a forma como a reconstrução é feita, mas, supondo que você consiga modificá-la para executar tudo dentro do contêiner, sem recriá-lo, então você deverá conseguir enviar o contêiner para um registro (certifique-se de que seja privado, pois as senhas estariam lá). Dito isso, não recomendo essa abordagem por vários motivos (alguns deles mencionados anteriormente).
A instalação padrão inclui nginx, rails, postgres e redis dentro do container. Ela usa volumes externos para os dados do postgres e redis. Eles não são destruídos em uma reconstrução/atualização.
É, achei estranho ele ter dito que o banco de dados está dentro do contêiner, a menos que ele tenha mudado a forma como a instalação padrão funciona, ou esteja se referindo ao PostgreSQL, e não ao banco de dados em si.
Não — as etapas de migração e compilação de ativos ocorrem durante a fase ./launcher bootstrap, após a resolução dos plugins. Depois disso, o contêiner pode ser reiniciado quantas vezes for necessário, ou os processos da web podem ser divididos entre várias máquinas, etc.
Em termos de engenharia, a configuração deve ser algo assim:
./launcher bootstrap usando o Docker aninhado em um nó baseado em VM (sem acesso ao socket do Docker), renomeie e envie a imagem resultante para o registro privado (com uma etiqueta baseada em timestamp, não latest) (local_discourse não é um bom nome aqui) e realize o rollout da implantação para a nova etiqueta
O PostgreSQL roda dentro do container. Ele salva os dados fora do container, mas roda dentro dele se você usar o conjunto padrão de modelos de instalação. O mesmo vale para o Redis. Acho que a confusão surge quando digo “o banco de dados roda dentro do container”: estou me referindo ao servidor de banco de dados, mesmo que os arquivos do banco de dados estejam fora do container. (Mas arquivos de banco de dados não “rodam”, por isso considero minha formulação clara — mas claramente não o suficiente
.)
PS: na verdade, ele nem sempre salva os dados fora do container, a menos que você configure o Docker para fazer o mount da ligação desse diretório. Consegui pular isso durante o bootstrap, embora provavelmente não seja uma boa ideia, pois, nesse caso, o conteúdo do banco de dados não sobreviverá a reinicializações do container.
Acho que isso está fazendo mais sentido para mim agora, especialmente após ler a longa conversa vinculada sobre docker-compose, o script do launcher, etc.
Aqui está o que gostaria de poder fazer:
./launcher bootstrap localmente para criar uma imagem “completa” do Discourse que inclua todas as dependências: postgres, redis, etc../launcher bootstrap para atualizar a imagem e redesplegar sem destruir os dados (óbvio)Minha compreensão é que a imagem completa do Discourse não deve exigir nenhuma dependência de serviço externo. No entanto, para que os dados sobrevivam às atualizações dos contêineres, os arquivos do banco de dados postgres precisam ficar fora do contêiner. Isso não há problema — posso criar um volume persistente do k8s para eles.
Agora, aqui está o único problema que antecipo. A maior parte do que acontece durante ./launcher bootstrap apenas toca em arquivos que vivem dentro do contêiner. Por exemplo, a pré-compilação de ativos. Isso está tudo bem, já que os resultados ficam dentro do contêiner e não precisam sobreviver às atualizações.
A grande exceção aqui é a migração do banco de dados. Essa etapa precisa ter acesso ao banco de dados que será usado após a conclusão do bootstrap. Então, para mim, isso parece ser o principal obstáculo para implantar facilmente imagens completas do Discourse na nuvem.
Percebi que @sam mencionou várias vezes que eles redesplegam o Discourse para seus clientes usando um fluxo de trabalho aproximadamente semelhante ao que descrevi acima. Mas suspeito que a razão pela qual isso funciona é que as imagens do Discourse deles são configuradas para usar um servidor de banco de dados (e provavelmente o Redis também) que roda em seu cluster — o que faria sentido para suportar várias implantações, mas não é exatamente o que quero fazer. Isso significa que o processo de bootstrap pode modificar o banco de dados de produção — ou talvez apenas que a etapa de migração do banco de dados seja pulada completamente, já que atualizações e migrações do banco de dados são tratadas externamente. @sam: você poderia confirmar?
De qualquer forma, a conclusão disso para mim é que preciso encontrar uma maneira de executar as migrações do banco de dados quando o contêiner iniciar, e não durante o ./launcher bootstrap. Acho que, nesse ponto, uma maneira de fazer isso seria:
./launcher bootstrap, usando um ponto de montagem de volume apontando para um banco de dados local vazio, já que esse banco de dados não será usado posteriormente. Isso colocaria tudo certo dentro do contêiner, apenas não finalizaria o trabalho do postgres.Você pode estar interessado em uma configuração multi-site.
Existem dois grandes problemas que você está enfrentando: o Discourse não está pronto para o Kubernetes, então é necessário código personalizado. E você está entrando no território do que a equipe do Discourse faz para ganhar dinheiro (hospedar um grande número de fóruns), então o nível de suporte que você recebe diminuirá.
Meu conselho? Faça uma configuração multi-site com agendamento estático em VMs, totalmente fora do seu cluster. (Ou um Service do tipo ExternalName apontando para a VM para manter o mesmo Ingress.)
OK… I managed to figure out one way of doing this. I’m not 100% happy with it, but it does work and may be appealing to others that are trying a simple single-container fat (includes postgres, redis, etc.) Discourse image deployment to Kubernetes.
After examining the bootstrap process it became clear to me that unfortunately it mixes in two different kinds of operations—ones that only affect the underlying container, and others that poke out into the surrounding environment, mainly through the /shared volume mount where the postgres data files live. Rather than trying to tease these steps apart, it seems more sane to just run the bootstrapping steps in the environment where the container is actually going to be deployed.
Unfortunately, launcher bootstrap wants to create a container and use Docker. So running launcher inside another container (for example, in a container running on our cloud) means either tangling with a Docker-in-Docker setup (doable, but not considered best practices) or exposing the underlying Docker daemon. I’m not even sure that that second approach would work, since I think that it would interpret a volume mount against the node’s local filesystem, whereas in our scenario we want to volume mount /shared to a persistent Kubernetes volume. Maybe the Docker-in-Docker route would work, but then you’d also have a weird triple volume mount from inside the nested container into the outer container and from there to the persistent Kubernetes volume. That sounds… unwise.
However, essentially launcher bootstrap creates one large .yml file by processing the templates value in the app.yml and then passes that to the Discourse base image when finishes the bootstrap process. So if we can extract the configuration file we can generate the configuration on any machine and then we only need to figure out how to pass it to a container we start in the cloud.
So as an overview, here are the steps we are going to follow:
launcherpups) and then start DiscourseHere’s the required change to launcher to support a dump command that writes the merged configuration to STDOUT:
run_dump() {
set_template_info
echo "$input"
}
(Note that this command is available in our fork of discourse_docker.)
So the first step is to use the new launcher dump command added above to create our bootstrap configuration:
# Substitute whatever your container configuration is called for app
./launcher dump app > bootstrap.yml
Next we need a container that knows to run pups to bootstrap the container before booting via /sbin/boot. I used the following Dockerfile to make a tiny change to the base discourse image:
FROM discourse/base:2.0.20191219-2109
COPY scripts/bootstrap.sh /
CMD bash bootstrap.sh
Where scripts/bootstrap.sh contains:
cd /pups/ && /pups/bin/pups --stdin < /bootstrap/bootstrap.yml && /sbin/boot
I published this as geoffreychallen:discourse_base:2.0.20191219-2109. (Note that you could probably also accomplish the same thing by modifying the boot command of the base Discourse docker image, but I was having a hard time getting that to work with the shell redirection required to get pups to read the configuration file.)
Now we need our Kubernetes configuration. Mine looks like this:
kind: PersistentVolumeClaim
apiVersion: v1
metadata:
name: kotlin-forum-pvc
namespace: ikp
spec:
storageClassName: rook-ceph-block
accessModes:
- ReadWriteOnce
resources:
requests:
storage: 64Gi
---
apiVersion: apps/v1
kind: Deployment
metadata:
name: kotlin-forum-deployment
namespace: ikp
spec:
replicas: 0
selector:
matchLabels:
app: kotlin-forum
template:
metadata:
labels:
app: kotlin-forum
spec:
volumes:
- name: kotlin-forum
persistentVolumeClaim:
claimName: kotlin-forum-pvc
- name: bootstrap
configMap:
name: kotlin-forum-bootstrap
containers:
- name: kotlin-forum
image: geoffreychallen/discourse_base:2.0.20191219-2109
imagePullPolicy: Always
volumeMounts:
- name: kotlin-forum
mountPath: /shared/
- name: bootstrap
mountPath: /bootstrap/
ports:
- containerPort: 80
env:
- name: TZ
value: "America/Chicago"
- name: LANG
value: en_US.UTF-8
- name: RAILS_ENV
value: production
- name: UNICORN_WORKERS
value: "3"
- name: UNICORN_SIDEKIQS
value: "1"
- name: RUBY_GLOBAL_METHOD_CACHE_SIZE
value: "131072"
- name: RUBY_GC_HEAP_GROWTH_MAX_SLOTS
value: "40000"
- name: RUBY_GC_HEAP_INIT_SLOTS
value: "400000"
- name: RUBY_GC_HEAP_OLDOBJECT_LIMIT_FACTOR
value: "1.5"
- name: DISCOURSE_DB_SOCKET
value: /var/run/postgresql
- name: DISCOURSE_DEFAULT_LOCALE
value: en
- name: DISCOURSE_HOSTNAME
value: kotlin-forum.cs.illinois.edu
- name: DISCOURSE_DEVELOPER_EMAILS
value: challen@illinois.edu
- name: DISCOURSE_SMTP_ADDRESS
value: outbound-relays.techservices.illinois.edu
- name: DISCOURSE_SMTP_PORT
value: "25"
---
apiVersion: v1
kind: Service
metadata:
name: kotlin-forum
namespace: ikp
spec:
type: NodePort
ports:
- name: http
port: 80
targetPort: 80
selector:
app: kotlin-forum
---
apiVersion: networking.k8s.io/v1beta1
kind: Ingress
metadata:
namespace: ikp
annotations:
nginx.ingress.kubernetes.io/ssl-redirect: "true"
name: kotlin-forum-ingress
spec:
rules:
- host: kotlin-forum.cs.illinois.edu
http:
paths:
- backend:
serviceName: kotlin-forum
servicePort: 80
Yours will look different. Note that I’m terminating HTTPS upstream, hence the modifications to the Ingress configuration. I also like to put everything in one file, delete pieces that don’t work as I iterate, and then let Kubernetes skip duplicates on the next kubectl create -f. Also note that I set replicas: 0 so that the deployment doesn’t start as soon as its configured. That’s because we have one bit of additional configuration to finish.
I copied the list of environment variables from what I saw being passed to the container by launcher start. I don’t know if all of these are necessary and others may be missing depending on your configuration. YMMV.
Note that we have two volume maps pointing into the container: the first is for postgres, configured as a persistent volume that will survive pod restarts. The second is a configuration mapping created like this:
kubectl create configmap kotlin-forum-bootstrap --from-file=bootstrap.yml=<path/to/bootstrap.yml>
Where kotlin-forum-bootstrap needs to match your Kubernetes configuration and path/to/bootstrap.yml is the path to the bootstrap.yml file we created using launcher dump above.
Once your configmap is in place, you should be able to scale your deployment to one replica and see Discourse booting and running the same bootstrap process that launcher bootstrap would have performed. That takes a few minutes. When that is done, your Discourse installation will boot.
A few other notes that I ran on the way to getting this (at least for now) fully configured:
X-Forwarded headers, including both X-Fowarded-For, X-Forwarded-Proto, X-Forwarded-Port. Not doing so will result in strange authentication errors when trying to use Google login and probably other login providers.nginx ingress controller must be configured to pass headers by setting use-forwarded-headers in the global config map. This took me a while to get right, since at least several times I edited the wrong configuration map, and then expected my ingress containers to restart when the configuration map changed. (They didn’t.)To update the deployed installation, you regenerate the new bootstrap.yml file, update the config map, and then restart the container (easiest by scaling to 0 and then back to 1 replica).
This does incur a bit of downtime since the bootstrapping happens before the container is built. But this seems inevitable to me in cases where you need to update the configuration and/or change the base image. launcher rebuild is documented as stop; bootstrap; start, meaning that the bootstrap process will still cause downtime even if performed using the launcher script.
This fat container Discourse deployment pattern would be much easier to support if the launcher script would more cleanly separate (a) bootstrap steps that could be performed offline and only affect the files in the container and (b) bootstrap steps that modify or need access to the database or other state outside the container. The approach described above is a bit frustrating because you do see all kinds of JS uglification, asset minification, and other things that could be done with the previous deployment running… but they are just too mixed in with other things (like database migrations) that can’t be done without access to the database. I briefly thought about creating a container that would only perform the steps in templates/postgres.yml, but then noticed that database migrations were being done by the web template, and thought about plugins, and then just gave up
.
With better separation redeployment for fat containers could work something like this:
That would result in a bit less downtime. It’s probably not worth the effort for that reason alone, but I can imagine that this might also simplify more complex deployment scenarios involving shared databases or whatever.
Isso faz mais sentido. Foi o que fiz ao separar em duas etapas o estágio de inicialização (bootstrap). A primeira pode rodar em um ambiente isolado (como um pipeline de CI), gerando uma imagem base com o repositório do Discourse, gems e plugins instalados. A segunda etapa precisa rodar na máquina de destino (ou ter, pelo menos, acesso ao banco de dados de produção) para realizar a migração do banco de dados e gerar os assets (isso é feito no processo de bootstrap, embora não ao iniciar o contêiner).
Sim, isso seria incrível. Já solicitei isso, mas não sei se e quando isso será feito.
Isso seria difícil de implementar completamente em um ambiente separado, pois a tarefa de pré-compilação de assets precisa de acesso ao banco de dados (para coisas como CSS personalizado). No entanto, seria ótimo se apenas o que depende do banco de dados pudesse ser feito em uma etapa separada (e todos os outros assets, que não dependem do banco de dados, pudessem ser pré-compilados separadamente), mas não sei quão viável seria implementá-lo tecnicamente.
Isso é praticamente o que faço nas instalações do Kubernetes que realizei. Não consigo imaginar como ou por que usar o k8s sem contêineres separados para dados e web (ou algum outro tipo de PostgreSQL e Redis externos — as instalações que fiz para clientes usam recursos do GCP para isso).
Além disso, há uma variável de ambiente chamada skip_post_migration_updates que você precisa entender para upgrades verdadeiramente sem tempo de inatividade. Ela é descrita aqui.