Olá
,
Tentei atualizar minha instância auto-hospedada do Discourse. Durante o processo, a atualização falhou com o seguinte erro (log completo abaixo).
Após atualizar a página, o fórum relata a nova versão:
v3.5.0.beta9 +509
Isso é confuso porque o log mostra claramente que a atualização falhou.
Minhas perguntas:
- A atualização realmente foi bem-sucedida ou a instalação pode estar agora em um estado quebrado/inconsistente?
- O segfault em
@swc/core postinstallé um problema conhecido com a imagem atual / configuração do pnpm? - Devo executar um
./launcher rebuild appcompleto do servidor para garantir a consistência, ou a instância está segura como está?
Capturas de tela:
********************************************************
*** Por favor, seja paciente, os próximos passos podem demorar ***
********************************************************
Ciclagem do Unicorn, para liberar memória
Reiniciando o pid do unicorn: 3983
Aguardando o Unicorn recarregar.
Aguardando o Unicorn recarregar..
Aguardando o Unicorn recarregar...
Aguardando o Unicorn recarregar....
Aguardando o Unicorn recarregar.....
Aguardando o Unicorn recarregar......
Aguardando o Unicorn recarregar.......
Aguardando o Unicorn recarregar........
Aguardando o Unicorn recarregar.........
Aguardando o Unicorn recarregar..........
Aguardando o Unicorn recarregar...........
Aguardando o Unicorn recarregar............
Aguardando o Unicorn recarregar.............
Aguardando o Unicorn recarregar..............
Parando 3 workers do Unicorn, para liberar memória
Parando a fila de trabalhos para recuperar memória, o pid mestre é 294135
$ cd /var/www/discourse && git fetch --tags --prune-tags --prune --force
$ cd /var/www/discourse && git reset --hard HEAD@{upstream}
Atualizando arquivos: 2% (2/81)
Atualizando arquivos: 3% (3/81)
Atualizando arquivos: 4% (4/81)
Atualizando arquivos: 6% (5/81)
Atualizando arquivos: 7% (6/81)
Atualizando arquivos: 8% (7/81)
Atualizando arquivos: 9% (8/81)
Atualizando arquivos: 11% (9/81)
Atualizando arquivos: 12% (10/81)
Atualizando arquivos: 13% (11/81)
Atualizando arquivos: 14% (12/81)
Atualizando arquivos: 16% (13/81)
Atualizando arquivos: 17% (14/81)
Atualizando arquivos: 18% (15/81)
Atualizando arquivos: 19% (16/81)
Atualizando arquivos: 20% (17/81)
Atualizando arquivos: 22% (18/81)
Atualizando arquivos: 23% (19/81)
Atualizando arquivos: 24% (20/81)
Atualizando arquivos: 25% (21/81)
Atualizando arquivos: 27% (22/81)
Atualizando arquivos: 28% (23/81)
Atualizando arquivos: 29% (24/81)
Atualizando arquivos: 30% (25/81)
Atualizando arquivos: 32% (26/81)
Atualizando arquivos: 33% (27/81)
Atualizando arquivos: 34% (28/81)
Atualizando arquivos: 35% (29/81)
Atualizando arquivos: 37% (30/81)
Atualizando arquivos: 38% (31/81)
Atualizando arquivos: 39% (32/81)
Atualizando arquivos: 40% (33/81)
Atualizando arquivos: 41% (34/81)
Atualizando arquivos: 43% (35/81)
Atualizando arquivos: 44% (36/81)
Atualizando arquivos: 45% (37/81)
Atualizando arquivos: 46% (38/81)
Atualizando arquivos: 48% (39/81)
Atualizando arquivos: 49% (40/81)
Atualizando arquivos: 50% (41/81)
Atualizando arquivos: 51% (42/81)
Atualizando arquivos: 53% (43/81)
Atualizando arquivos: 54% (44/81)
Atualizando arquivos: 55% (45/81)
Atualizando arquivos: 56% (46/81)
Atualizando arquivos: 58% (47/81)
Atualizando arquivos: 59% (48/81)
Atualizando arquivos: 60% (49/81)
Atualizando arquivos: 61% (50/81)
Atualizando arquivos: 62% (51/81)
Atualizando arquivos: 64% (52/81)
Atualizando arquivos: 65% (53/81)
Atualizando arquivos: 66% (54/81)
Atualizando arquivos: 67% (55/81)
Atualizando arquivos: 69% (56/81)
Atualizando arquivos: 70% (57/81)
Atualizando arquivos: 71% (58/81)
Atualizando arquivos: 72% (59/81)
Atualizando arquivos: 74% (60/81)
Atualizando arquivos: 75% (61/81)
Atualizando arquivos: 76% (62/81)
Atualizando arquivos: 77% (63/81)
Atualizando arquivos: 79% (64/81)
Atualizando arquivos: 80% (65/81)
Atualizando arquivos: 81% (66/81)
Atualizando arquivos: 82% (67/81)
Atualizando arquivos: 83% (68/81)
Atualizando arquivos: 85% (69/81)
Atualizando arquivos: 86% (70/81)
Atualizando arquivos: 87% (71/81)
Atualizando arquivos: 88% (72/81)
Atualizando arquivos: 90% (73/81)
Atualizando arquivos: 91% (74/81)
Atualizando arquivos: 92% (75/81)
Atualizando arquivos: 93% (76/81)
Atualizando arquivos: 95% (77/81)
Atualizando arquivos: 96% (78/81)
Atualizando arquivos: 97% (79/81)
Atualizando arquivos: 98% (80/81)
Atualizando arquivos: 100% (81/81)
Atualizando arquivos: 100% (81/81), concluído.
HEAD está agora em 92842bf94 Build(deps): Bump @rollup/browser from 4.52.2 to 4.52.3 (#35024)
$ bundle install --retry 3 --jobs 4
Buscando metadados de gem de https://rubygems.org/........
Buscando redis-client 0.26.1
Buscando faraday 2.14.0
Buscando propshaft 1.3.1
Instalando redis-client 0.26.1
Instalando faraday 2.14.0
Instalando propshaft 1.3.1
AVISO: Especificações não resolvidas ou ambíguas durante Gem::Specification.reset:
stringio (>= 0)
Versões disponíveis/instaladas desta gem:
- 3.1.7
- 3.1.1
AVISO: Limpando especificações não resolvidas. Tente 'gem cleanup <gem>'
Por favor, relate um bug se isso causar problemas.
Bundle completo! 160 dependências de Gemfile, 207 gems agora instaladas.
Gems nos grupos 'test' e 'development' não foram instaladas.
Gems empacotadas estão instaladas em ./vendor/bundle
3 gems instaladas nas quais você depende diretamente estão procurando por financiamento.
Execute bundle fund para detalhes
$ if [ -f yarn.lock ]; then yarn install; else CI=1 pnpm install; fi
Escopo: todos os 16 projetos do workspace
O arquivo de bloqueio está atualizado, a etapa de resolução é ignorada
Progresso: resolvido 1, reutilizado 0, baixado 0, adicionado 0
Pacotes: +37 -4
+++++++++++++++++++++++++++++++++++++----
Progresso: resolvido 37, reutilizado 20, baixado 0, adicionado 0
Progresso: resolvido 37, reutilizado 20, baixado 0, adicionado 4
Progresso: resolvido 37, reutilizado 20, baixado 0, adicionado 5
Progresso: resolvido 37, reutilizado 20, baixado 0, adicionado 24
Progresso: resolvido 37, reutilizado 20, baixado 4, adicionado 31
Progresso: resolvido 37, reutilizado 20, baixado 5, adicionado 36, concluído
.../node_modules/@swc/core postinstall$ node postinstall.js
.../node_modules/@swc/core postinstall$ node postinstall.js
.../node_modules/@swc/core postinstall: Concluído
.../node_modules/@swc/core postinstall: Falha de segmentação (core dumped)
.../node_modules/@swc/core postinstall: Falhou
ELIFECYCLE Comando falhou com código de saída 139.
Docker Manager: FALHA AO ATUALIZAR
#<RuntimeError: RuntimeError>
/var/www/discourse/plugins/docker_manager/lib/docker_manager/upgrader.rb:211:in run'
/var/www/discourse/plugins/docker_manager/lib/docker_manager/upgrader.rb:102:in upgrade'
/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:19:in block in <main>'
/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:6:in fork'
/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:6:in <main>'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/commands/runner/runner_command.rb:44:in load'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/commands/runner/runner_command.rb:44:in block in perform'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/activesupport-8.0.3/lib/active_support/execution_wrapper.rb:91:in wrap'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/commands/runner/runner_command.rb:70:in conditional_executor'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/commands/runner/runner_command.rb:43:in perform'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/thor-1.4.0/lib/thor/command.rb:28:in run'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/thor-1.4.0/lib/thor/invocation.rb:127:in invoke_command'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/command/base.rb:178:in invoke_command'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/thor-1.4.0/lib/thor.rb:538:in dispatch'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/command/base.rb:73:in perform'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/command.rb:65:in block in invoke'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/command.rb:143:in with_argv'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/command.rb:63:in invoke'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/railties-8.0.3/lib/rails/commands.rb:18:in <main>'
/usr/local/lib/ruby/3.3.0/bundled_gems.rb:69:in require'
/usr/local/lib/ruby/3.3.0/bundled_gems.rb:69:in block (2 levels) in replace_require'
/var/www/discourse/vendor/bundle/ruby/3.3.0/gems/bootsnap-1.18.6/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:30:in require'
bin/rails:18:in <main>'
Iniciando 3 workers do Unicorn que foram parados inicialmente


