زيادة أقصى حجم للملف

صباح الخير،

لدي مشكلة في تحميل الملفات لا أستطيع حلها.

أقوم بتشغيل نسخة discourse عبر docker في جهاز افتراضي على Google Cloud.

لدي حاليًا تحميلات الملفات ونسخ احتياطية من discourse باستخدام S3 عبر GCS ممكّنة وتعمل هذه الوظائف بشكل صحيح بعد اتباع التعليمات الموجودة في موضوع تكوين موفر تخزين كائنات متوافق مع S3 للتحميلات. يمكنني رؤية التحميلات في الحاوية وعندما أنظر إلى عناوين URL للتحميل، تظهر جميع التحميلات عنوان URL الصحيح من شبكة توصيل المحتوى (CDN) لذلك يبدو أنها تسحب بشكل صحيح من الحاوية.

ثم اتبعت التعليمات الموجودة في موضوع تغيير الحد الأقصى لحجم المرفقات/التحميلات ولدي ما يلي في app.yml ضمن params

params:
  db_default_text_search_config: "pg_catalog.english"

  ## تعيين db_shared_buffers إلى 25% كحد أقصى من الذاكرة الإجمالية.
  ## سيتم تعيينه تلقائيًا بواسطة bootstrap بناءً على الذاكرة العشوائية المكتشفة، أو يمكنك تجاوزها
  db_shared_buffers: "1024MB"

  ## يمكن أن يحسن أداء الفرز، ولكنه يضيف استخدام الذاكرة لكل اتصال
  #db_work_mem: "40MB"

  ## أي مراجعة Git يجب أن تستخدمها هذه الحاوية؟ (الافتراضي: tests-passed)
  #version: tests-passed

  ## الحد الأقصى لحجم التحميل (الافتراضي: 10m)
  upload size: 1000m

ثم ذهبت إلى الإعدادات > الملفات وأدخلت ما يلي:

ولكن عندما أقوم بتحميل ملف PDF بحجم 12.5 ميجابايت إلى منشور، أتلقى هذا:

تم تحميل ملفي PDF الآخرين بحجم 6-7 ميجابايت بنجاح وتم تحميلهما عبر حاوية S3 كما هو مقصود وعادتا بعناوين شبكة توصيل المحتوى (CDN). لذلك أنا في حيرة من أمري وأي مساعدة ستكون موضع تقدير كبير. شكراً مقدماً.