Aumentando o tamanho máximo do arquivo

Bom dia,

Estou tendo um problema com o upload de arquivos que não consigo resolver.

Estou executando a instância do Discourse via Docker em uma VM no Google Cloud.

Atualmente, tenho uploads de arquivos e backups do Discourse usando S3 via GCS habilitados e essas funções estão funcionando corretamente após seguir as instruções no tópico Configure um provedor de armazenamento de objetos compatível com S3 para uploads. Posso ver os uploads no bucket e, quando olho os URLs de upload, todos os uploads estão mostrando o URL correto da CDN, então parece que eles estão sendo puxados corretamente do bucket.

Em seguida, segui as instruções no tópico Alterar o tamanho máximo de anexo/upload e tenho o seguinte em app.yml sob params:

params:
  db_default_text_search_config: "pg_catalog.english"

  ## Define db_shared_buffers para um máximo de 25% da memória total.
  ## será definido automaticamente pelo bootstrap com base na RAM detectada, ou você pode substituir
  db_shared_buffers: "1024MB"

  ## pode melhorar o desempenho da classificação, mas adiciona uso de memória por conexão
  #db_work_mem: "40MB"

  ## Qual revisão Git este contêiner deve usar? (padrão: tests-passed)
  #version: tests-passed

  ## Tamanho máximo de upload (padrão: 10m)
  upload size: 1000m

Em seguida, fui para Configurações > Arquivos e inseri o seguinte:

Mas quando vou e faço o upload de um PDF de 12,5 MB para uma postagem, recebo isto:

Os outros dois PDFs que tinham 6-7 MB foram carregados com sucesso e foram carregados através do bucket S3 conforme o pretendido, retornando com endereços CDN. Então, estou bastante confuso e qualquer ajuda seria muito apreciada. Obrigado antecipadamente.