バックアップにディスク容量の2倍が必要ですが、プロセスを改善できますか?

S3へのバックアップが毎晩実行される場合、ディスクサイズは使用済みスペースの少なくとも2倍必要になります。私の200GBディスクでは、Discourseは約50%を使用しており、バックアップ中はバックアップがS3にアップロードされるまでディスク使用率が90%強まで跳ね上がります。

ディスクスペースをより良く管理する方法があるか気になっています。私の質問のきっかけは、Discourseから送られてきたメッセージです。

download_remote_images_to_local 設定は、download_remote_images_threshold のディスクスペース制限に達したため無効になりました。

これは10%に設定されていました。

計画がありました。
バックアップの(冗長な)gzip圧縮を解除することで、ローカルディスク容量の必要性を削減する

「いいね!」 2