Да, это был AWS S3.
К сожалению, у меня нет точных цифр, так как в интерфейсе Amazon нельзя увидеть данные об использовании S3 старше одного года. Но, как я уже сказал, порядок величины, думаю, верен.
Я точно знаю, что мои резервные копии составляли около 30 ГБ каждая, и я хранил максимум около 3 копий. Что касается частоты, я не помню, делалось ли это раз в два дня или раз в неделю.
У меня ещё есть счета, и в них указано от 5 до 7 долларов в месяц. Там нет никакой информации, связанной с объёмом данных.
Я перестал использовать S3 из-за стоимости. Это не было так дорого, как вы говорите, но я пытался сбалансировать расходы между различными сервисами, на которые подписан (хостинг, почта, CDN, резервные копии…), и решил вместо этого бесплатно синхронизировать свои резервные копии с Google Drive с помощью rclone.
Недостаток в том, что, хотя я доверяю Discourse в плане надёжного использования S3, при использовании rclone я не доверяю ему в той же мере и должен убедиться, что резервные копии правильно синхронизируются с Google Drive. Я продолжаю периодически проверять это, особенно после того, как заметил, что хотя бы один раз токен Google не был правильно обновлён, и мои резервные копии перестали синхронизироваться с Drive.
Возможно, в будущем я изменю способ управления своими резервными копиями, не знаю.
Да, это именно для Discourse ![]()
Размер резервной копии был около 27 ГБ два года назад, а сейчас — 30 ГБ.
Как и во многих других инстансах, большую часть размера резервной копии составляют загруженные файлы. Хотя база данных в несжатом виде занимает 23 ГБ, текст сжимается эффективно.