Questo è il modo suggerito. Se esegui il backup del tuo database una volta al giorno, rischi al massimo 24 ore di qualsiasi cosa sia accaduta in quel forum.
Mi è stato detto almeno due volte che non è un problema, ma nessuno ha mai spiegato perché no. Quindi sto eseguendo il backup del mio database ogni 6 ore — il mio forum non è molto trafficato, quindi posso correre questo rischio. Per fare un confronto — il mio e-commerce esegue il backup ogni 4 minuti.
Come hai configurato il tuo database per eseguire il backup più frequentemente? Preferirei due volte al giorno, ma la funzionalità dell’interfaccia utente consente solo giornalmente.
Questo è il comando CLI di Discourse per il backup, e mi è stato detto che docker exec app lo esegue al di fuori del container (app sul nome del container, ovviamente).
E poiché ho configurato S3 che salta nello stesso bucket dove si trovano anche i backup “normali”.
C’è un piccolo problema… molto presto ci saranno un miliardo di backup. Non so se dovrei fare diversamente il dump SQL, spostarlo usando aws-cli e poi eliminare tutto ciò che è più vecchio di un certo periodo di tempo. O fare la stessa cosa sul VPS.
Ma questo è il modo più semplice per ottenere il dump SQL.
Presumo che questo attivi la routine di backup del discorso interno, quindi tutte le notifiche rimangono al loro posto.
Disattivi la pianificazione del backup all’interno dell’interfaccia utente e gestisci tutto tramite cron? oppure, ne fai uno all’interno dell’interfaccia utente e fai quello aggiuntivo tramite cron?
No. Faccio entrambe le cose. Non mi fido abbastanza né del sistema né di me stesso. Molto raramente la quantità di backup è un problema, la carenza lo è.
Grazie @Jagster e @pfaffman per l’aiuto nell’impostare un database aggiuntivo tramite cron. Questo riduce la perdita massima di dati del mio sistema a 12 ore.