Contenitori di app multipli per un singolo sito Discourse

You can host multiple standalone Discourse installs on a single server (separate containers / separate ports / separate app.yml), without using Discourse “multisite”.

It’s more manual than multisite, but it keeps instances isolated and makes it easier to migrate an individual site to its own server later.

One practical pattern is:

• external Postgres (single instance)
• external Redis (single instance)
• multiple Discourse web containers
• one Sidekiq node
• reverse proxy with health checks

This avoids multisite entirely while still allowing cost savings on low-traffic setups.



DISCOURSE MULTI-CONTAINER RUNBOOK
External Postgres + Redis + HAProxy + app1 / app2


  1. HOST PACKAGES
Step Command
Update system apt-get update
Install base tools apt-get install -y ca-certificates curl gnupg lsb-release
Install HAProxy + certbot + socat apt-get install -y haproxy certbot socat

  1. DOCKER NETWORK (REQUIRED)

A user-defined Docker network is required so containers can resolve each other by name.

Step Command
Create network docker network create discourse-net
Verify docker network ls | grep discourse-net

This allows:

• DISCOURSE_DB_HOST=pg
• DISCOURSE_REDIS_HOST=redis

to work correctly.


  1. SECRETS
Purpose Command
Postgres superuser export PG_SUPERPASS='REPLACE_ME_super_strong'
Discourse DB password export DISCOURSE_DBPASS='REPLACE_ME_discordb_strong'
Redis password export REDIS_PASS='REPLACE_ME_redis_strong'
Secret key base export SECRET_KEY_BASE="$(openssl rand -hex 64)"

  1. POSTGRES CONTAINER
Step Command
Create directory mkdir -p /var/discourse/external/postgres
Run container docker run -d --name pg --restart=always --network=discourse-net -e POSTGRES_PASSWORD="$PG_SUPERPASS" -v /var/discourse/external/postgres:/var/lib/postgresql/data postgres:15
Verify docker ps | grep pg

  1. CREATE DATABASE
Step Command
Create role docker exec -it pg psql -U postgres -c "CREATE ROLE discourse LOGIN PASSWORD '$DISCOURSE_DBPASS';"
Create DB docker exec -it pg psql -U postgres -c "CREATE DATABASE discourse OWNER discourse ENCODING 'UTF8' TEMPLATE template0;"
Text search docker exec -it pg psql -U postgres -d discourse -c "ALTER DATABASE discourse SET default_text_search_config = 'pg_catalog.english';"
Test login docker exec -it pg psql -U discourse -d discourse -c "select 1;"

  1. PGVECTOR EXTENSION

Required for modern Discourse versions.

Step Command
Install docker exec -it pg bash -lc 'apt-get update && apt-get install -y postgresql-15-pgvector && rm -rf /var/lib/apt/lists/*'
Create extension docker exec -it pg psql -U postgres -d discourse -c "CREATE EXTENSION IF NOT EXISTS vector;"
Verify docker exec -it pg psql -U postgres -d discourse -c "SELECT extname FROM pg_extension WHERE extname='vector';"

  1. REDIS CONTAINER
Step Command
Create directory mkdir -p /var/discourse/external/redis

Redis config template:

requirepass REPLACE_ME_REDIS
appendonly yes
save 900 1
save 300 10
save 60 10000
Step Command
Write config tee /var/discourse/external/redis/redis.conf >/dev/null <<EOF
Insert password sed -i "s/REPLACE_ME_REDIS/$REDIS_PASS/" /var/discourse/external/redis/redis.conf
Run redis docker run -d --name redis --restart=always --network=discourse-net -v /var/discourse/external/redis:/data -v /var/discourse/external/redis/redis.conf:/usr/local/etc/redis/redis.conf redis:7-alpine redis-server /usr/local/etc/redis/redis.conf
Test auth docker exec -it redis redis-cli -a "$REDIS_PASS" ping

  1. DISCOURSE DIRECTORY LAYOUT
Step Command
Create base dir mkdir -p /var/discourse
Enter cd /var/discourse
Clone repo git clone https://github.com/discourse/discourse_docker.git
Containers dir mkdir -p /var/discourse/containers
Shared logs mkdir -p /var/discourse/shared/web-only/log/var-log
Link containers ln -sfn /var/discourse/containers /var/discourse/discourse_docker/containers
Link launcher ln -sfn /var/discourse/discourse_docker/launcher /var/discourse/launcher

  1. APPLICATION CONTAINERS

app1.yml
• web + sidekiq
• port 8001

docker_args: "--network=discourse-net"
expose:
  - "8001:80"

app2.yml
• web only
• port 8002
• sidekiq disabled

docker_args: "--network=discourse-net"
expose:
  - "8002:80"

run:
  - exec: bash -lc 'mkdir -p /etc/service/sidekiq && touch /etc/service/sidekiq/down'

  1. BOOTSTRAP
Step Command
Enter cd /var/discourse/discourse_docker
Bootstrap app1 ./launcher bootstrap app1
Start app1 ./launcher start app1
Bootstrap app2 ./launcher bootstrap app2
Start app2 ./launcher start app2

  1. HEALTH CHECKS
Step Command
app1 curl -sSf http://127.0.0.1:8001/srv/status
app2 curl -sSf http://127.0.0.1:8002/srv/status
sidekiq app1 docker exec -it app1 pgrep -fa sidekiq
sidekiq app2 `docker exec -it app2 pgrep -fa sidekiq

  1. TLS CERTIFICATE
Step Command
Stop proxy systemctl stop haproxy
Issue cert certbot certonly --standalone -d example.com --agree-tos -m you@example.com --non-interactive
Start proxy systemctl start haproxy

  1. HAPROXY LOGIC
frontend fe_discourse
    bind :80
    bind :443 ssl crt /etc/letsencrypt/live/example.com/haproxy.pem

    http-request set-header X-Forwarded-Proto https if { ssl_fc }
    http-request set-header X-Forwarded-Proto http if !{ ssl_fc }

    redirect scheme https code 301 if !{ ssl_fc }

    use_backend be_discourse if { nbsrv(be_discourse) gt 0 }
    default_backend be_maint
backend be_discourse
    balance roundrobin
    option httpchk GET /srv/status
    server app1 127.0.0.1:8001 check
    server app2 127.0.0.1:8002 check
backend be_maint
    http-request return status 503 content-type text/html string "<h1>Maintenance</h1>"

  1. ZERO-DOWNTIME REBUILDS
Step Command
Disable app1 echo "disable server be_discourse/app1" | socat stdio /run/haproxy/admin.sock
Rebuild app1 ./launcher rebuild app1
Enable app1 echo "enable server be_discourse/app1" | socat stdio /run/haproxy/admin.sock
Step Command
Disable app2 echo "disable server be_discourse/app2" | socat stdio /run/haproxy/admin.sock
Rebuild app2 ./launcher rebuild app2
Enable app2 echo "enable server be_discourse/app2" | socat stdio /run/haproxy/admin.sock

END

Docker networking required
External Postgres and Redis
pgvector installed
Sidekiq isolated to app1
HAProxy health checks enabled
Maintenance fallback active
Rolling rebuilds supported

Migrating one site to its own server later

One advantage of running fully standalone Discourse installs (instead of multisite) is that migration is straightforward and low-risk.

Each Discourse instance already has:

• its own container
• its own uploads
• its own database
• its own Redis usage
• its own app.yml

No multisite disentangling is required.


High-level migration steps

  1. Provision a new VPS

Install Docker and Discourse normally on the new server.
Do not configure multisite.


  1. Create a full backup

From the source site:

Admin → Backups → Create Backup

Download the backup file.

This includes:

• database
• uploads
• users
• settings
• themes


  1. Restore on the new server

On the new server:

• complete initial setup
• log in as admin
• upload the backup
• restore

Discourse handles schema compatibility automatically.


  1. DNS cutover

Update the domain’s A record to point to the new server IP.

Once DNS propagates, users are transparently moved.


  1. Decommission old container

On the original server:

• stop the old container
• remove it when confident

Other Discourse installs on the same host are unaffected.


Why this is simpler than multisite

In multisite setups, migration often requires:

• separating databases
• extracting site-specific data
• adjusting multisite.yml
• reworking Sidekiq
• reconfiguring uploads and email

With standalone installs, none of that is necessary.

Each site is already independent.


Summary

This approach trades a little operational complexity early on
for very simple separation later.

It works particularly well during experimentation
or early-stage community building.


When this approach is probably not a good fit

This setup is usually not a good idea if:

• the sites expect moderate or high traffic early on
• you rely heavily on official Discourse support
• you are uncomfortable debugging Docker, networking, or reverse proxies
• uptime requirements are strict or business-critical
• multiple sites are tightly coupled operationally
• you expect frequent plugin experimentation across all instances

In these cases, either:

• a supported multisite setup
or
• one Discourse install per server

will usually result in fewer operational surprises.


Important note

This approach increases infrastructure flexibility,
but also increases responsibility on the administrator.

It works best when the person running it is comfortable owning the full stack
and treating occasional breakage as part of the learning process.

If stability and supportability are the primary goals,
a supported configuration is almost always the better choice.

1 Mi Piace

un’ulteriore nota che si collega direttamente alla parte HAProxy della configurazione sopra.

Esiste un comportamento comune con HAProxy + Discourse per cui la ricostruzione di un container web (ad esempio con ./launcher rebuild app1) restituirà brevemente risposte 503 Service Unavailable perché HAProxy sta ancora inviando traffico a quel backend mentre si sta riavviando. Questo non è un errore in Discourse stesso: accade perché il backend è momentaneamente non disponibile durante la ricostruzione.

La soluzione consigliata consiste nell’utilizzare il socket di amministrazione di HAProxy per:

  1. disabilitare il server in HAProxy prima della ricostruzione, e
  2. riabilitarlo dopo che la ricostruzione è terminata

Ciò impedisce quei 503 transitori.

Esiste una discussione esistente su Meta che documenta questo comportamento e la spiegazione della soluzione alternativa:

Se qualcuno qui utilizza HAProxy per le ricostruzioni progressive (rolling rebuilds), quel thread fornisce un contesto utile per spiegare perché i comandi del socket di amministrazione sono inclusi nel runbook.

[quote=“Ethsim2, post:51, topic:392692”]È possibile ospitare più installazioni Discourse autonome su un singolo server (container separati / porte separate / app.yml separato), senza utilizzare il “multisito” di Discourse.
[/quote]

Faccio qualcosa di simile, con un container in stile solo web per sito e traefik (anche se ho anche una configurazione che utilizza nginx-proxy) come proxy inverso. Ho provato HAproxy per un po’ (è quello che usa CDCK, per quanto ne so), ma l’ho trovato macchinoso.

[quote=“Ethsim2, post:51, topic:392692”]• Redis esterno (istanza singola)
[/quote]

Sono abbastanza sicuro che sia necessario un redis per ogni server Discourse.

[quote=“david, post:2, topic:219318”]Ogni Discourse ha bisogno del proprio server redis totalmente separato perché message-bus utilizza Redis Pub/Sub, che è condiviso tra tutti i database su un server Redis.
[/quote]

Penso che ci sia una piccola discrepanza terminologica qui.

Quando dici “un Redis per server Discourse”, sono d’accordo se per server intendiamo un sito Discourse logico.

Nel mio caso:

  • HAProxy viene utilizzato solo per il failover / fronting
  • Non c’è configurazione multisito
  • C’è solo un sito Discourse (singolo hostname, singolo database Postgres)
  • Ci sono semplicemente due container di app in grado di servire lo stesso sito

Quindi questo è più simile a un layout multi-web / HA, non a due installazioni Discourse indipendenti.

In questa configurazione, la condivisione di Redis è prevista e richiesta - altrimenti si perdono:

  • sessioni condivise
  • consegna MessageBus
  • limitazione della velocità (rate limiting)
  • coordinamento dei processi in background

Questo è lo stesso schema dell’esecuzione di più container web_only o della scalabilità orizzontale dei worker web:
più container di app → un Postgres + un Redis.

Dove Redis non deve essere condiviso è quando ci sono due siti Discourse separati (hostname/database diversi). In tal caso, ogni sito necessita del proprio DB Redis (o istanza) per evitare collisioni di chiavi.

Quindi penso che siamo allineati concettualmente - è solo:

  • :white_check_mark: un Redis per sito Discourse
  • :cross_mark: non un Redis per singolo container di app

Felice di chiarire ulteriormente se ho frainteso qualcosa - volevo solo spiegare la topologia più chiaramente.

Oh. Questo è l’opposto di ciò di cui pensavo stessimo parlando. Il titolo è “Un server per 2 comunità Discourse” Tu stai parlando di “due server per una comunità Discourse”.

Hai ragione: ho confuso due topologie diverse, e il titolo del thread è l’indizio.

Questo argomento riguarda “un server per 2 community” (due siti indipendenti).
Il mio precedente commento su “Redis esterno (istanza singola)” descriveva uno schema diverso: “due container applicativi per una community” (HA / multi-web per un singolo sito).

Quindi, per ribadire chiaramente:

A) Due siti Discourse indipendenti su un server (quello che chiede l’OP)

  • Trattali come due installazioni separate
  • Dovrebbero avere database Postgres separati e istanze Redis separate (o almeno un isolamento sufficiente per MessageBus Pub/Sub, che è l’insidia che hai citato)

B) Un sito Discourse con più container web/app (quello che stavo descrivendo)

  • Devono condividere lo stesso database Postgres e lo stesso Redis per quel sito (sessioni, limitazione della frequenza, MessageBus, ecc.)

Quindi: :white_check_mark: il tuo avviso su Redis si applica ad A (due community / due siti).
La mia nota su “Redis condiviso” si applica solo a B (una community scalata su più container).

Grazie per la correzione: manterrò i due casi esplicitamente separati in eventuali futuri runbook/post.

1 Mi Piace