Tenho um site que está enviando um backup de 20 GB para o Wasabi S3. Funciona. Na maioria das vezes.
Mas, às vezes, falha ao fazer upload para o S3 e mantém o arquivo .tar.gz local. E, eventualmente, o disco enche, deixando-me com um disco cheio, o arquivo .tar descomprimido (porque não havia espaço suficiente para a versão comprimida) e, em breve, um site quebrado porque o disco está cheio.
Antes de desistir do Wasabi, gostaria de tentar ver se há alguma pista.
Verifiquei o production.log, production.errors e os logs do sidekiq e do unicorn, mas não encontrei “acku” em lugar nenhum, nem no dia em que o backup falhou nem quando funcionou. Não deveria haver algum log em algum lugar?
Você deve receber uma MP com a saída do log se falhar. Ela é enviada diretamente para você se for um backup manual na interface ou para o grupo de administradores se for um backup automático.
Uma exceção durante o backup também deve aparecer em /logs e, acredito, em um dos arquivos de log também. Tente pesquisar por EXCEPTION:
Mas, o fato de ele manter arquivos temporários faz-me questionar se o Sidekiq ou até mesmo o Docker ou o host são reiniciados durante o backup. Isso explicaria por que a limpeza não é executada e por que você não está recebendo uma MP.
Certo. Isso é muito estranho. Não recebi nenhuma notificação de falha, nem mesmo para aquele caso em que havia apenas um arquivo .tar e o disco quase cheio (é um site atualizado em tests-passed).
É como se o backup location tivesse sido alterado naqueles dias, mas não há nada nos logs. Vejo notificações de “sucesso” nas mensagens de administrador para backups iniciados pela interface web, mas nenhuma de falha. Já movi o backup_location para uma variável de ambiente.