Propósito del volumen compartido de Discourse en una configuración de alta disponibilidad

¡Hola! Me pregunto cuál es el propósito del volumen compartido en una implementación de Discourse.

Para dar contexto, tenemos Discourse funcionando en un clúster de Kubernetes (en GKE), pero nos gustaría escalar el número de instancias de nuestra implementación para hacerla más disponible. Por supuesto, todas las instancias seguirían conectadas a la misma base de datos Postgres e instancia de Redis, pero me pregunto si todos los servidores web necesitan conectarse al mismo volumen compartido, o si los servidores web pueden escalarse de forma independiente (es decir, si cada instancia del servidor web puede tener su propio volumen “compartido”).

¿O existe un requisito estricto de que todos los servidores web utilicen el mismo volumen compartido, en cuyo caso tendríamos que buscar montar algo como un volumen NFS en cada uno de nuestros contenedores?

¡Gracias!

The shared volume is there as a value add you can get away without it. In a typical “uploads are on AWS”, PG / Redis somewhere central setup you will only use it for Rails/Unicorn/NGINX etc logs. You would then ship them somewhere central with some log aggregation service.

Perfect, thanks @sam!

Just wanted to check that there weren’t going to be issues with uploads going to one host, and then a request hits another host and isn’t available due to it running in a separate container with a separate mount.

Sounds like we’ll be ok here :+1:.

Note, It will be an issue unless you use our s3 uploads provider