Múltiples contenedores de aplicación para un solo sitio Discourse

You can host multiple standalone Discourse installs on a single server (separate containers / separate ports / separate app.yml), without using Discourse “multisite”.

It’s more manual than multisite, but it keeps instances isolated and makes it easier to migrate an individual site to its own server later.

One practical pattern is:

• external Postgres (single instance)
• external Redis (single instance)
• multiple Discourse web containers
• one Sidekiq node
• reverse proxy with health checks

This avoids multisite entirely while still allowing cost savings on low-traffic setups.



DISCOURSE MULTI-CONTAINER RUNBOOK
External Postgres + Redis + HAProxy + app1 / app2


  1. HOST PACKAGES
Step Command
Update system apt-get update
Install base tools apt-get install -y ca-certificates curl gnupg lsb-release
Install HAProxy + certbot + socat apt-get install -y haproxy certbot socat

  1. DOCKER NETWORK (REQUIRED)

A user-defined Docker network is required so containers can resolve each other by name.

Step Command
Create network docker network create discourse-net
Verify docker network ls | grep discourse-net

This allows:

• DISCOURSE_DB_HOST=pg
• DISCOURSE_REDIS_HOST=redis

to work correctly.


  1. SECRETS
Purpose Command
Postgres superuser export PG_SUPERPASS='REPLACE_ME_super_strong'
Discourse DB password export DISCOURSE_DBPASS='REPLACE_ME_discordb_strong'
Redis password export REDIS_PASS='REPLACE_ME_redis_strong'
Secret key base export SECRET_KEY_BASE="$(openssl rand -hex 64)"

  1. POSTGRES CONTAINER
Step Command
Create directory mkdir -p /var/discourse/external/postgres
Run container docker run -d --name pg --restart=always --network=discourse-net -e POSTGRES_PASSWORD="$PG_SUPERPASS" -v /var/discourse/external/postgres:/var/lib/postgresql/data postgres:15
Verify docker ps | grep pg

  1. CREATE DATABASE
Step Command
Create role docker exec -it pg psql -U postgres -c "CREATE ROLE discourse LOGIN PASSWORD '$DISCOURSE_DBPASS';"
Create DB docker exec -it pg psql -U postgres -c "CREATE DATABASE discourse OWNER discourse ENCODING 'UTF8' TEMPLATE template0;"
Text search docker exec -it pg psql -U postgres -d discourse -c "ALTER DATABASE discourse SET default_text_search_config = 'pg_catalog.english';"
Test login docker exec -it pg psql -U discourse -d discourse -c "select 1;"

  1. PGVECTOR EXTENSION

Required for modern Discourse versions.

Step Command
Install docker exec -it pg bash -lc 'apt-get update && apt-get install -y postgresql-15-pgvector && rm -rf /var/lib/apt/lists/*'
Create extension docker exec -it pg psql -U postgres -d discourse -c "CREATE EXTENSION IF NOT EXISTS vector;"
Verify docker exec -it pg psql -U postgres -d discourse -c "SELECT extname FROM pg_extension WHERE extname='vector';"

  1. REDIS CONTAINER
Step Command
Create directory mkdir -p /var/discourse/external/redis

Redis config template:

requirepass REPLACE_ME_REDIS
appendonly yes
save 900 1
save 300 10
save 60 10000
Step Command
Write config tee /var/discourse/external/redis/redis.conf >/dev/null <<EOF
Insert password sed -i "s/REPLACE_ME_REDIS/$REDIS_PASS/" /var/discourse/external/redis/redis.conf
Run redis docker run -d --name redis --restart=always --network=discourse-net -v /var/discourse/external/redis:/data -v /var/discourse/external/redis/redis.conf:/usr/local/etc/redis/redis.conf redis:7-alpine redis-server /usr/local/etc/redis/redis.conf
Test auth docker exec -it redis redis-cli -a "$REDIS_PASS" ping

  1. DISCOURSE DIRECTORY LAYOUT
Step Command
Create base dir mkdir -p /var/discourse
Enter cd /var/discourse
Clone repo git clone https://github.com/discourse/discourse_docker.git
Containers dir mkdir -p /var/discourse/containers
Shared logs mkdir -p /var/discourse/shared/web-only/log/var-log
Link containers ln -sfn /var/discourse/containers /var/discourse/discourse_docker/containers
Link launcher ln -sfn /var/discourse/discourse_docker/launcher /var/discourse/launcher

  1. APPLICATION CONTAINERS

app1.yml
• web + sidekiq
• port 8001

docker_args: "--network=discourse-net"
expose:
  - "8001:80"

app2.yml
• web only
• port 8002
• sidekiq disabled

docker_args: "--network=discourse-net"
expose:
  - "8002:80"

run:
  - exec: bash -lc 'mkdir -p /etc/service/sidekiq && touch /etc/service/sidekiq/down'

  1. BOOTSTRAP
Step Command
Enter cd /var/discourse/discourse_docker
Bootstrap app1 ./launcher bootstrap app1
Start app1 ./launcher start app1
Bootstrap app2 ./launcher bootstrap app2
Start app2 ./launcher start app2

  1. HEALTH CHECKS
Step Command
app1 curl -sSf http://127.0.0.1:8001/srv/status
app2 curl -sSf http://127.0.0.1:8002/srv/status
sidekiq app1 docker exec -it app1 pgrep -fa sidekiq
sidekiq app2 `docker exec -it app2 pgrep -fa sidekiq

  1. TLS CERTIFICATE
Step Command
Stop proxy systemctl stop haproxy
Issue cert certbot certonly --standalone -d example.com --agree-tos -m you@example.com --non-interactive
Start proxy systemctl start haproxy

  1. HAPROXY LOGIC
frontend fe_discourse
    bind :80
    bind :443 ssl crt /etc/letsencrypt/live/example.com/haproxy.pem

    http-request set-header X-Forwarded-Proto https if { ssl_fc }
    http-request set-header X-Forwarded-Proto http if !{ ssl_fc }

    redirect scheme https code 301 if !{ ssl_fc }

    use_backend be_discourse if { nbsrv(be_discourse) gt 0 }
    default_backend be_maint
backend be_discourse
    balance roundrobin
    option httpchk GET /srv/status
    server app1 127.0.0.1:8001 check
    server app2 127.0.0.1:8002 check
backend be_maint
    http-request return status 503 content-type text/html string "<h1>Maintenance</h1>"

  1. ZERO-DOWNTIME REBUILDS
Step Command
Disable app1 echo "disable server be_discourse/app1" | socat stdio /run/haproxy/admin.sock
Rebuild app1 ./launcher rebuild app1
Enable app1 echo "enable server be_discourse/app1" | socat stdio /run/haproxy/admin.sock
Step Command
Disable app2 echo "disable server be_discourse/app2" | socat stdio /run/haproxy/admin.sock
Rebuild app2 ./launcher rebuild app2
Enable app2 echo "enable server be_discourse/app2" | socat stdio /run/haproxy/admin.sock

END

Docker networking required
External Postgres and Redis
pgvector installed
Sidekiq isolated to app1
HAProxy health checks enabled
Maintenance fallback active
Rolling rebuilds supported

Migrating one site to its own server later

One advantage of running fully standalone Discourse installs (instead of multisite) is that migration is straightforward and low-risk.

Each Discourse instance already has:

• its own container
• its own uploads
• its own database
• its own Redis usage
• its own app.yml

No multisite disentangling is required.


High-level migration steps

  1. Provision a new VPS

Install Docker and Discourse normally on the new server.
Do not configure multisite.


  1. Create a full backup

From the source site:

Admin → Backups → Create Backup

Download the backup file.

This includes:

• database
• uploads
• users
• settings
• themes


  1. Restore on the new server

On the new server:

• complete initial setup
• log in as admin
• upload the backup
• restore

Discourse handles schema compatibility automatically.


  1. DNS cutover

Update the domain’s A record to point to the new server IP.

Once DNS propagates, users are transparently moved.


  1. Decommission old container

On the original server:

• stop the old container
• remove it when confident

Other Discourse installs on the same host are unaffected.


Why this is simpler than multisite

In multisite setups, migration often requires:

• separating databases
• extracting site-specific data
• adjusting multisite.yml
• reworking Sidekiq
• reconfiguring uploads and email

With standalone installs, none of that is necessary.

Each site is already independent.


Summary

This approach trades a little operational complexity early on
for very simple separation later.

It works particularly well during experimentation
or early-stage community building.


When this approach is probably not a good fit

This setup is usually not a good idea if:

• the sites expect moderate or high traffic early on
• you rely heavily on official Discourse support
• you are uncomfortable debugging Docker, networking, or reverse proxies
• uptime requirements are strict or business-critical
• multiple sites are tightly coupled operationally
• you expect frequent plugin experimentation across all instances

In these cases, either:

• a supported multisite setup
or
• one Discourse install per server

will usually result in fewer operational surprises.


Important note

This approach increases infrastructure flexibility,
but also increases responsibility on the administrator.

It works best when the person running it is comfortable owning the full stack
and treating occasional breakage as part of the learning process.

If stability and supportability are the primary goals,
a supported configuration is almost always the better choice.

1 me gusta

una nota adicional que se relaciona directamente con la parte de HAProxy de la configuración anterior.

Existe un comportamiento común con HAProxy + Discourse en el que reconstruir un contenedor web (por ejemplo, con ./launcher rebuild app1) devolverá brevemente respuestas de 503 Service Unavailable porque HAProxy sigue enviando tráfico a ese backend mientras se está reiniciando. Esto no es un error en Discourse en sí, sino que ocurre porque el backend no está disponible momentáneamente durante la reconstrucción.

La solución recomendada es utilizar el socket de administración de HAProxy para:

  1. deshabilitar el servidor en HAProxy antes de la reconstrucción, y
  2. volver a habilitarlo después de que finalice la reconstrucción

Esto previene esos 503 transitorios.

Existe una discusión existente en Meta que documenta este comportamiento y la explicación de la solución alternativa:

Si alguien aquí está utilizando HAProxy para reconstrucciones continuas (rolling rebuilds), ese hilo proporciona un contexto útil sobre por qué se incluyen los comandos del socket de administración en el manual de procedimientos (runbook).

[quote=“Ethsim2, post:51, topic:392692”]Puedes alojar múltiples instalaciones independientes de Discourse en un solo servidor (contenedores separados / puertos separados / app.yml separado), sin usar “multisitio” de Discourse.
[/quote]

Yo hago algo similar, con un contenedor de estilo solo web por sitio y traefik (aunque también tengo una configuración que usa nginx-proxy) como proxy inverso. Probé HAproxy por un tiempo (es lo que usa CDCK, hasta donde sé), pero me resultó engorroso.

Estoy bastante seguro de que necesitas un redis por servidor Discourse.

Creo que puede haber una pequeña discrepancia terminológica aquí.

Cuando dices “un Redis por servidor de Discourse”, estoy de acuerdo si por servidor nos referimos a un sitio lógico de Discourse.

En mi caso:

  • HAProxy solo se utiliza para conmutación por error / fronting
  • No hay configuración multisitio
  • Solo hay un sitio de Discourse (un solo nombre de host, una sola base de datos Postgres)
  • Simplemente hay dos contenedores de aplicaciones capaces de servir ese mismo sitio

Así que esto se acerca más a un diseño multi-web / HA, no a dos instalaciones independientes de Discourse.

En esa configuración, compartir Redis es lo esperado y necesario; de lo contrario, se pierde:

  • sesiones compartidas
  • entrega de MessageBus
  • limitación de velocidad
  • coordinación de trabajos en segundo plano

Este es el mismo patrón que ejecutar múltiples contenedores web_only o escalar horizontalmente los trabajadores web:
múltiples contenedores de aplicaciones → una Postgres + una Redis.

Donde Redis no debe compartirse es cuando hay dos sitios de Discourse separados (diferentes nombres de host/bases de datos). En ese caso, cada sitio necesita su propia base de datos (o instancia) de Redis para evitar colisiones de claves.

Así que creo que estamos alineados conceptualmente: es solo:

  • :white_check_mark: una Redis por sitio de Discourse
  • :cross_mark: no una Redis por contenedor de aplicación individual

Estaré encantado de aclarar más si he entendido mal algo; solo quería explicar la topología con más claridad.

Oh. Eso es lo opuesto de lo que pensé que estábamos discutiendo. El título es “Un servidor para 2 comunidades de Discourse” Usted está hablando de “dos servidores para una comunidad de Discourse”.

Tiene razón: confundí dos topologías diferentes, y el título del hilo es la pista.

Este tema trata sobre “un servidor para 2 comunidades” (dos sitios independientes).
Mi comentario anterior sobre “Redis externo (instancia única)” describía un patrón diferente: “dos contenedores de aplicaciones para una comunidad” (HA / multi-web para un solo sitio).

Así que, para reiterar claramente:

A) Dos sitios Discourse independientes en un servidor (lo que pregunta el OP)

  • Trátelos como dos instalaciones separadas
  • Deben tener bases de datos Postgres separadas e instancias de Redis separadas (o al menos un aislamiento suficiente para MessageBus Pub/Sub, que es el problema que citó)

B) Un sitio Discourse con múltiples contenedores web/aplicación (lo que yo estaba describiendo)

  • Deben compartir la misma base de datos Postgres y el mismo Redis para ese sitio
    (sesiones, limitación de velocidad, MessageBus, etc.)

Entonces: :white_check_mark: su advertencia sobre Redis se aplica a A (dos comunidades / dos sitios).
Mi nota sobre “Redis compartido” solo se aplica a B (una comunidad escalada a través de múltiples contenedores).

Gracias por la corrección; mantendré los dos casos explícitamente separados en cualquier guía/publicación de seguimiento.

1 me gusta