Configurer les sauvegardes automatiques pour Discourse

:bookmark: Ce guide explique comment configurer les sauvegardes automatiques pour Discourse, y compris les options de stockage sur des serveurs locaux et des stockages compatibles S3.

Apprenez à configurer les sauvegardes automatiques pour votre plateforme Discourse.

Ce guide couvre la configuration des sauvegardes automatiques, leur stockage sur des serveurs locaux ou des stockages compatibles S3, et la gestion des options de rétention de stockage comme Amazon Glacier.

Configuration des sauvegardes automatiques

  1. Accédez aux paramètres /admin.
  2. Sélectionnez la section Backup (Sauvegarde).
  3. Définissez backup_frequency sur l’intervalle souhaité en jours. La valeur par défaut est 7 (hebdomadaire). Définissez sur 1 pour des sauvegardes quotidiennes, ou 0 pour désactiver les sauvegardes automatiques. La valeur maximale est 30.

backup_frequencybackup_frequency100%75%50%

Paramètres de sauvegarde supplémentaires

  • backup_time_of_day — l’heure de la journée (UTC) à laquelle les sauvegardes s’exécutent. Défaut : 3:30.
  • backup_with_uploads — inclure les téléchargements dans les sauvegardes planifiées. Défaut : activé. La désactivation de cette option ne sauvegardera que la base de données.
  • maximum_backups — le nombre maximal de sauvegardes à conserver. Les sauvegardes plus anciennes sont automatiquement supprimées. Défaut : 5.
  • remove_older_backups — supprimer les sauvegardes plus anciennes que le nombre de jours spécifié. Laisser vide pour désactiver.

Stocker les sauvegardes sur le serveur local

Par défaut, les sauvegardes sont stockées sur votre serveur local. Pour les instances auto-hébergées, vous y accédez à /var/discourse/shared/standalone/backups/default.

Stocker les sauvegardes sur un stockage compatible S3

Utilisation du panneau d’administration

  1. Créez un compartiment S3 (bucket).
  2. Définissez s3_backup_bucket dans le panneau d’administration.
  1. Configurez s3_access_key_id, s3_secret_access_key, et s3_region.
  2. Définissez backup_location sur “S3”.

image

:warning: ATTENTION

Stocker les sauvegardes et les téléchargements normaux dans le même compartiment et le même dossier n’est plus pris en charge et ne fonctionnera pas.

Le chemin s3_backup_bucket doit être utilisé uniquement pour les sauvegardes. Si vous devez utiliser un compartiment contenant d’autres fichiers, assurez-vous de fournir un préfixe lorsque vous configurez le paramètre s3_backup_bucket (exemple : my-awesome-bucket/backups) et assurez-vous que les fichiers avec ce préfixe sont privés.

Désormais, toutes les sauvegardes seront téléchargées vers S3 et ne seront plus stockées localement. Le stockage local ne sera utilisé que pour les fichiers temporaires pendant les sauvegardes et les restaurations.

Accédez à l’onglet Backups (Sauvegardes) dans le tableau de bord d’administration pour parcourir les sauvegardes – vous pouvez les télécharger à tout moment pour effectuer une sauvegarde manuelle hors site.

Utilisation des variables d’environnement dans app.yml

Vous pouvez également configurer les sauvegardes S3 à l’aide de variables d’environnement dans app.yml. Pour plus d’informations, consultez Configurer un fournisseur de stockage objet compatible S3 pour les téléchargements.

Notez que l’article ci-dessus couvre la configuration S3 via app.yml pour les sauvegardes et pour les téléchargements de fichiers/images. Si vous souhaitez uniquement utiliser S3 pour les sauvegardes (et non pour les téléchargements de fichiers/images), vous pouvez omettre les paramètres suivants de votre configuration app.yml :

  • DISCOURSE_USE_S3
  • DISCOURSE_S3_CDN_URL
  • DISCOURSE_S3_BUCKET

Vous n’avez pas non plus besoin de configurer l’étape after_assets_precompile dans ce cas, ni de configurer un CDN.

Assurez-vous d’inclure tous les autres paramètres requis pour votre fournisseur de stockage, comme mentionné dans l’article. Voici un exemple de configuration qui n’active S3 que pour les sauvegardes (pour Scaleway S3) :

DISCOURSE_S3_REGION: nl-ams
DISCOURSE_S3_ENDPOINT: https://s3.nl-ams.scw.cloud
DISCOURSE_S3_ACCESS_KEY_ID: my_access_key
DISCOURSE_S3_SECRET_ACCESS_KEY: my_secret_access_key
DISCOURSE_S3_BACKUP_BUCKET: my_bucket/my_folder
DISCOURSE_BACKUP_LOCATION: s3

Archivage vers un stockage à coût réduit

Notez que sur AWS S3, vous pouvez également activer une règle de cycle de vie de déplacement automatique vers un compartiment Glacier pour maintenir vos coûts de sauvegarde S3 bas. D’autres fournisseurs de stockage ont souvent une offre similaire.

59 « J'aime »

You are able to Archive Backups from your S3 Bucket to Glacier.
It is cheaper, but an Restore attemps more Time.

This Site will Help you to reduce Backup costs.:

11 « J'aime »

Setting this up can be rather confusing. Here’s a simple guide to help you out.

  • Log into your Discourse admin panel
  • Configure daily backups
  • Set maximum backups to 7
  • Log into your Amazon Web Services account
  • Go in the S3 Dashboard
  • Open the bucket containing the backups
  • Click on the properties tab
  • Activate versioning
  • Open the Lifecycle menu
  • Add a rule for the whole bucket
  • Set current version to expire after 15 days
  • Set previous version to
  • Archive to Glacier after 1 days
  • expire after 91 days
  • Save and logout

How it works

Versioning will keep backups automaticly deleted by Discourse. One day after beeing deleted it will be moved to the Glacier storage. After 91 days it will be delete from the Glacier storage.

Warning

Amazon charge you for item stored in Glacier for 90 days even if you delete them before. Make sure your Glacier Lyfecicle keep your file at least 90 days.

11 « J'aime »

I may have missed this, but how to I make sure a bucket for backups is private the proper way? Setting up file and image uploads to S3 doesn’t seem to be described here.

1 « J'aime »

Looks like there is no such option anymore.

UPD: ah, now it’s split into 2 steps of this wizard.

So I guess it should be like this:

2 « J'aime »

Does S3 backup functionality play nice without IAM access key and secret if using AWS roles assigned to the instance and s3 use iam profile is enabled in the settings menu?

Edit: The answer is YES! Just ensure you have region set appropriately.

1 « J'aime »

I had this problem too, which was resolved by adding a couple of lines to the policy document:

"Resource": [
        "arn:aws:s3:::your-uploads-bucket",
        "arn:aws:s3:::your-uploads-bucket/*",
        "arn:aws:s3:::your-backups-bucket",
        "arn:aws:s3:::your-backups-bucket/*"
      ]

Should this be added to the OP (which isn’t a wiki)? Or perhaps in the OP of Set up file and image uploads to S3?

2 « J'aime »

Is there a good reason not to make daily backups aren’t the default?

Fixes needed for OP

Add something about moving S3 backups to Glacier?
Delete the S3 stuff and link to Configure an S3 compatible object storage provider for uploads

It’d be overkill and expensive. Same reason we don’t recommend changing the oil in your car every 500 miles?

You back up your servers once a week?

I think your 500 mile oil change analogy would be a good answer for “why not keep 30 backups?”, but it doesn’t make sense to me here.

Do you not think that if you’re going to have 5 backups most people would rather have backups every day so that if they do have to revert to a backup they’ve lost no more than a day? The only time I remember an older backup being useful is when images fell out of tombstone.

If they have so little disk space that they can’t hold 5 backups, it would seem better to learn that in 5 days when they still have some memory of what they did than wait 4-5 weeks.

1 « J'aime »

Yes, that is correct, for my self hosted servers.

If you prefer different settings, feel free to edit them from the defaults. What’s stopping you from doing so?

1 « J'aime »

Well, I’ll be!

I’m cleaning up topics like this one. If the defaults were changed, it wouldn’t be needed!

I’m convinced that the defaults won’t be changed, so I’ll move ahead. :wink

2 « J'aime »

Once a week is a good starting point and a solid default.

1 « J'aime »

I had the very same problem!

i suggest to add a note regarding this on the initial post too!

3 « J'aime »

Would be nice if this could be used to upload to a different S3 compatible provider, such as running MinIO.

If you want to use minio, see Using Object Storage for Uploads (S3 & Clones). If you want different services for backups and assets then you’re out of luck (though there are ways to set up triggers to copy from one bucket 8 another)

No, just want for backups, so they get automatically pushed to a different machine on my network.

Then the guide I linked is what you’re looking for.

1 « J'aime »

Is it possible to be more frequent than once per day? I’d rather not make assumptions and set backup freqeuncy to a float

1 « J'aime »

If you want more frequent backups you’ll need to do them externally.

3 « J'aime »