Erhöhung der maximalen Dateigröße

Guten Morgen,

Ich habe ein Problem beim Hochladen von Dateien, das ich einfach nicht lösen kann.

Ich betreibe die Discourse-Instanz über Docker in einer VM bei Google Cloud.

Ich habe derzeit das Hochladen von Dateien und Discourse-Backups über S3 via GCS aktiviert, und diese Funktionen funktionieren ordnungsgemäß, nachdem ich die Anweisungen im Thread Configure an S3 compatible object storage provider for uploads befolgt habe. Ich kann die Uploads im Bucket sehen, und wenn ich mir die Upload-URLs ansehe, zeigen alle Uploads die richtige URL vom CDN an, sodass sie korrekt aus dem Bucket zu stammen scheinen.

Ich habe dann die Anweisungen im Thread Change the maximum attachment/upload size befolgt und habe Folgendes unter params in app.yml:

params:
  db_default_text_search_config: "pg_catalog.english"

  ## Set db_shared_buffers to a max of 25% of the total memory.
  ## will be set automatically by bootstrap based on detected RAM, or you can override
  db_shared_buffers: "1024MB"

  ## can improve sorting performance, but adds memory usage per-connection
  #db_work_mem: "40MB"

  ## Which Git revision should this container use? (default: tests-passed)
  #version: tests-passed

  ## Maximum upload size (default: 10m)
  upload size: 1000m

Ich ging dann zu Einstellungen > Dateien und gab Folgendes ein:

Aber wenn ich versuche, ein 12,5 MB großes PDF in einen Beitrag hochzuladen, erhalte ich Folgendes:

Die beiden anderen PDFs, die 6-7 MB groß sind, wurden problemlos hochgeladen und über den S3-Bucket wie beabsichtigt hochgeladen und mit CDN-Adressen zurückgegeben. Ich bin also ziemlich ratlos und jede Hilfe wäre sehr willkommen. Vielen Dank im Voraus.