Ich habe eine Website, die regelmäßig ein 20 GB großes Backup zu Wasabi S3 hochlädt. Es funktioniert. Meistens.
Manchmal schlägt der Upload zu S3 jedoch fehl und die lokale .tar.gz-Datei bleibt erhalten. Schließlich füllt sich die Festplatte, und ich habe eine volle Festplatte, die unkomprimierte .tar-Datei (da nicht genug Platz für die komprimierte Version vorhanden war) und bald eine defekte Website, weil die Festplatte voll ist.
Bevor ich Wasabi aufgibt, möchte ich versuchen, nach Hinweisen zu suchen.
Ich habe in production.log, production.errors sowie den Sidekiq- und Unicorn-Logs nachgesehen und nirgendwo „acku
Sie sollten eine PM mit der Protokollausgabe erhalten, falls es fehlschlägt. Diese wird entweder direkt an Sie gesendet, wenn es sich um ein manuelles Backup in der Benutzeroberfläche handelt, oder an die Admin-Gruppe, wenn es sich um ein automatisches Backup handelt.
Eine Ausnahme während des Backups sollte ebenfalls in /logs erscheinen und meiner Meinung nach auch in einer der Protokolldateien. Versuchen Sie, nach EXCEPTION: zu suchen.
Doch die Tatsache, dass temporäre Dateien zurückbehalten werden, lässt mich wondering, ob Sidekiq oder sogar Docker oder der Host während des Backups neu gestartet werden. Das würde erklären, warum die Bereinigung nicht ausgeführt wird und warum Sie keine PM erhalten.
Richtig. Das ist sehr seltsam. Ich habe keine Fehlermeldung erhalten, auch nicht für den Fall, bei dem nur eine .tar-Datei vorhanden war und die Festplatte fast voll war (es handelt sich um eine aktuelle Seite auf tests-passed).
Es ist, als ob der backup location an diesen Tagen einfach geändert wurde, aber in den Logs steht nichts. Ich sehe in den Admin-Nachrichten „erfolgreiche