S3 を使用したアップロードは、バックアップ作成時にすべてのファイルを再ダウンロードすることを意味しますか?

こんにちは、新しく Discourse をセットアップし、S3 にアップロード用のバケットを用意しました。

しかし、Discourse がバックアップ作成時にすべてのファイルを圧縮する場合、バックアップが作成されるたびに、Discourse は S3 のアップロード用バケット全体を再ダウンロードすることになるのでしょうか?

また、この方法で帯域幅の制限に問題を経験した方はいますか?

「いいね!」 2

これはローカルファイルを指していると思います。S3 内のファイルは別途バックアップする必要があります。

「いいね!」 1

include_s3_uploads_in_backups サイト設定を有効にした場合のみ、この動作が発生します。この設定はデフォルトで無効になっています。

「いいね!」 6

その設定は、私のウェブサイトではデフォルトで有効になっているようです。しかし、それとは別に、S3 アップロードバケットを効率的にバックアップする方法についての推奨事項はありますか?

S3 へのバックアップ保存と Glacier へのアーカイブに関するこのガイドは、バックアップが単一の ZIP ファイルである場合には理にかなっています。しかし、私の理解では、Glacier はファイルごとに課金されるため、展開されたバケットのバックアップの場合、コストが劇的に上昇します。

私は AWS の初心者なので、アドバイスがあれば幸いです。ありがとうございます!

編集:もし優れた簡単な答えがない場合、アップロード用に S3 を使用しないことも検討できます。

https://iolap.com/2020/04/06/how-to-avoid-hidden-amazon-glacier-charges/

「いいね!」 2

それは多くの要因に依存します。いくらの予算を投入したいですか?どのようなシナリオでのバックアップが必要ですか?ソフトウェアのバグ、小惑星がアマゾンのデータセンターに衝突する事態、悪意のある管理者による S3 からのファイル削除など…

残念ながら、それについてはお手伝いできません。あなたのユースケースに合ったソリューションを他で探してください。お好みの検索エンジンがよい出発点となるでしょう。

「いいね!」 1

さらに調査を進め、関係者と話し合いました。

私の最善策は、S3バケットを別のリージョンにレプリケートすることだと考えています。設定とコストについて、さらに調査を行う必要があります。

「いいね!」 2

私たちのケースでは、Discourse 以外のサイトにおいて、awscli を使用して異なるリージョンにある異なるアカウント間のバケットを同期(aws s3 sync)しています。そのため、万が一アカウントが侵害されてバケットが削除された場合や、小惑星が衝突してアマゾンのデータセンターが破壊された場合(願わくばありませんが)、他のバケットから復旧可能です。同期を行う場合、新規または変更されたファイルのみが同期されるため、コストはそれほど高くならないはずです。

とはいえ、短期間で 2 つのアカウントが同時に侵害されバケットが削除される、あるいはアマゾンが AWS を閉鎖するというケースも考えられます。ただし、これらは非常に非常に可能性が低いです。しかし、そのようなことが起きた場合は、宝くじをやるつもりで、外れそうな番号を選ぶしかありません :slight_smile:

「いいね!」 1

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.