Julien_J
(Julien J.)
2020 年11 月 2 日 14:24
1
您好,
我尝试升级 Discourse,但收到了以下消息:
抱歉,升级 Discourse 时发生错误。请检查下方的日志。
********************************************************
*** 请耐心等待,后续步骤可能需要一些时间 ***
********************************************************
正在循环重启 Unicorn 以释放内存
正在重启 Unicorn 进程 ID: 663
等待 Unicorn 重新加载。
等待 Unicorn 重新加载..
等待 Unicorn 重新加载...
等待 Unicorn 重新加载....
正在使用 oj 3.10.15
正在使用 optimist 3.0.1
正在使用 pg 1.2.3
正在使用 r2 0.2.7
正在使用 raindrops 0.19.1
正在使用 rchardet 1.8.0
正在使用 rinku 2.0.6
正在使用 rotp 6.2.0
正在使用 rqrcode_core 0.1.2
正在使用 rtlit 0.0.5
正在使用 rubyzip 2.3.0
正在使用 tilt 2.0.10
正在使用 sshkey 2.0.0
正在使用 stackprof 0.2.16
正在使用 unf_ext 0.0.7.7
正在使用 xorcist 1.1.2
正在使用 i18n 1.8.5
正在使用 tzinfo 1.2.7
正在使用 nokogiri 1.10.10
正在使用 rack-test 1.1.0
正在使用 mail 2.7.1
正在使用 addressable 2.7.0
正在使用 aws-sigv4 1.2.0
正在使用 barber 0.12.2
正在使用 cose 1.2.0
正在使用 ember-data-source 3.0.2
正在使用 sprockets 3.7.2
正在使用 discourse_image_optim 0.26.2
正在使用 faraday 1.1.0
正在使用 request_store 1.5.0
正在使用 message_bus 3.3.4
正在使用 pry 0.13.1
正在使用 rack-mini-profiler 2.2.0
正在使用 rack-protection 2.1.0
正在使用 uglifier 4.2.0
正在使用 logstash-logger 0.26.1
正在使用 mini_racer 0.3.1
正在使用 sidekiq 6.1.2
正在使用 mini_suffix 0.3.0
正在使用 nokogumbo 2.0.2
正在使用 omniauth 1.9.1
正在使用 puma 5.0.4
正在使用 rbtrace 0.4.14
正在使用 redis-namespace 1.8.0
正在使用 rqrcode 1.1.2
正在使用 ruby-readability 0.7.0
正在使用 sassc 2.0.1
正在使用 unf 0.1.4
正在使用 unicorn 5.7.0
正在使用 webpush 1.0.0
正在使用 activesupport 6.0.3.3
正在使用 loofah 2.7.0
正在获取 bootsnap 1.5.0
正在使用 ember-handlebars-template 0.8.0
正在使用 mini_scheduler 0.12.3
正在使用 oauth2 1.4.4
正在使用 omniauth-oauth 1.1.0
正在使用 sanitize 5.2.1
正在使用 pry-byebug 3.9.0
正在使用 pry-rails 0.3.9
正在使用 rails-dom-testing 2.0.3
正在使用 rails-html-sanitizer 1.3.0
正在使用 globalid 0.4.2
正在使用 activemodel 6.0.3.3
正在使用 aws-sdk-core 3.99.1
正在使用 css_parser 1.7.1
正在使用 actionview 6.0.3.3
正在使用 activejob 6.0.3.3
正在使用 active_model_serializers 0.8.4
正在使用 activerecord 6.0.3.3
正在使用 aws-sdk-kms 1.31.0
正在使用 aws-sdk-sns 1.25.1
正在使用 omniauth-oauth2 1.7.0
正在使用 omniauth-twitter 1.4.0
正在使用 onebox 2.1.4
正在使用 actionpack 6.0.3.3
正在使用 actionview_precompiler 0.2.3
正在使用 aws-sdk-s3 1.66.0
正在使用 omniauth-facebook 8.0.0
正在使用 omniauth-github 1.4.0
正在使用 omniauth-google-oauth2 0.8.0
正在使用 seed-fu 2.3.9
正在使用 actionmailer 6.0.3.3
正在使用 railties 6.0.3.3
正在使用 sprockets-rails 3.2.2
正在使用 jquery-rails 4.4.0
正在使用 lograge 0.11.2
正在使用 rails_failover 0.5.7
正在使用 rails_multisite 2.5.0
正在使用 sassc-rails 2.1.2
正在使用 discourse-ember-rails 0.18.6
正在安装 bootsnap 1.5.0(带原生扩展)
Bundle 完成!共 123 个 Gemfile 依赖项,现已安装 161 个 gems。
test 和 development 组中的 gems 未安装。
Bundled gems 已安装到 `./vendor/bundle`
$ bundle exec rake plugin:pull_compatible_all
docker_manager 已经是最新兼容版本
discourse-data-explorer 已经是最新兼容版本
$ SKIP_POST_DEPLOYMENT_MIGRATIONS=1 bundle exec rake multisite:migrate
多站点迁移器正在使用 1 个线程运行
正在迁移 default
== 20201027110546 CreateLinkedTopics: 迁移中 ===============================
-- 创建表 (linked_topics)
-\u003e 0.0524 秒
-- 添加索引 (linked_topics, [:topic_id, :original_topic_id], {:unique=\u003etrue})
-\u003e 0.0066 秒
-- 添加索引 (linked_topics, [:topic_id, :sequence], {:unique=\u003etrue})
-\u003e 0.0045 秒
== 20201027110546 CreateLinkedTopics: 迁移完成 (0.0676 秒) ======================
正在为 default 填充数据
[...]
完成压缩 locales/ko-0c530732e52b234cd31ea1959ec4b5127cfcc2cb5b076d4999abfa0530e5bba5.js:耗时 0.11 秒
8625116.65540771 正在压缩:application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js
uglifyjs '/var/www/discourse/public/assets/_application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js' -m -c -o '/var/www/discourse/public/assets/application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js' --source-map "base='/var/www/discourse/public/assets',root='/assets',url='/assets/application-1e74fe54a11795d2a94b9b90ac1f18294214d956e95b882737a05319d5d11ff9.js.map'"
已被终止
Docker Manager:升级失败
#<RuntimeError: RuntimeError>
/var/www/discourse/plugins/docker_manager/lib/docker_manager/upgrader.rb:178:in `run'
/var/www/discourse/plugins/docker_manager/lib/docker_manager/upgrader.rb:86:in `upgrade'
/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:19:in `block in \u003cmain\u003e'
/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:6:in `fork'
/var/www/discourse/plugins/docker_manager/scripts/docker_manager_upgrade.rb:6:in `\u003cmain\u003e'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:59:in `load'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:59:in `load'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/commands/runner/runner_command.rb:42:in `perform'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/thor-1.0.1/lib/thor/command.rb:27:in `run'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/thor-1.0.1/lib/thor/invocation.rb:127:in `invoke_command'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/thor-1.0.1/lib/thor.rb:392:in `dispatch'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/command/base.rb:69:in `perform'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/command.rb:46:in `invoke'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/railties-6.0.3.3/lib/rails/commands.rb:18:in `\u003cmain\u003e'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:23:in `require'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:23:in `block in require_with_bootsnap_lfi'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/loaded_features_index.rb:92:in `register'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:22:in `require_with_bootsnap_lfi'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/bootsnap-1.4.9/lib/bootsnap/load_path_cache/core_ext/kernel_require.rb:31:in `require'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/activesupport-6.0.3.3/lib/active_support/dependencies.rb:324:in `block in require'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/activesupport-6.0.3.3/lib/active_support/dependencies.rb:291:in `load_dependency'
/var/www/discourse/vendor/bundle/ruby/2.6.0/gems/activesupport-6.0.3.3/lib/active_support/dependencies.rb:324:in `require'
bin/rails:17:in `\u003cmain\u003e'
正在启动最初已停止的 1 个 Unicorn 工作进程
1 个赞
Ed_S
(Ed S)
2020 年11 月 2 日 15:15
2
您的机器是否有足够的内存和交换空间?可以通过 free 或 top 命令查看。此外,您可以尝试运行 dmesg | egrep -3i kill,以查看是否有关于进程被终止的信息。我怀疑是内存不足(OOM killer)导致的。
1 个赞
Ed_S
(Ed S)
2020 年11 月 2 日 15:51
3
Well, oddly enough, my upgrade just failed the same way! I had successfully updated docker manager and data explorer, and got the ‘killed’ failure at the same step, running uglifyjs on the same file.
I have a Digital Ocean droplet with 1G RAM and 2G swap, and a relatively small forum (a backup is 700MByte)
Here’s my dmesg log, FWIW:
[36473663.447053] systemd-journal invoked oom-killer: gfp_mask=0x14200ca(GFP_HIGHUSER_MOVABLE), nodemask=(null), order=0, oom_score_adj=0
[36473663.447056] systemd-journal cpuset=/ mems_allowed=0
[36473663.447070] CPU: 0 PID: 22784 Comm: systemd-journal Not tainted 4.15.0-60-generic #67-Ubuntu
[36473663.447071] Hardware name: DigitalOcean Droplet, BIOS 20171212 12/12/2017
[36473663.447081] Call Trace:
[36473663.447349] dump_stack+0x63/0x8b
[36473663.447388] dump_header+0x71/0x285
[36473663.447393] oom_kill_process+0x21f/0x420
[36473663.447395] out_of_memory+0x2b6/0x4d0
[36473663.447405] __alloc_pages_slowpath+0xa53/0xe00
[36473663.447410] __alloc_pages_nodemask+0x29a/0x2c0
[36473663.447774] alloc_pages_current+0x6a/0xe0
[36473663.447937] __page_cache_alloc+0x81/0xa0
[36473663.447942] filemap_fault+0x3ea/0x6f0
[36473663.447953] ? page_add_file_rmap+0x134/0x180
[36473663.447957] ? filemap_map_pages+0x181/0x390
[36473663.448469] ext4_filemap_fault+0x31/0x44
[36473663.448476] __do_fault+0x5b/0x115
[36473663.448479] __handle_mm_fault+0xdef/0x1290
[36473663.448482] handle_mm_fault+0xb1/0x210
[36473663.448502] __do_page_fault+0x281/0x4b0
[36473663.448507] do_page_fault+0x2e/0xe0
[36473663.448683] ? async_page_fault+0x2f/0x50
[36473663.448851] do_async_page_fault+0x51/0x80
[36473663.448856] async_page_fault+0x45/0x50
[36473663.448865] RIP: 0033:0x7fea40ede2a0
[36473663.448866] RSP: 002b:00007ffeefb58698 EFLAGS: 00010246
[36473663.448869] RAX: 0000000000000000 RBX: 0000000000000000 RCX: 0000000000000000
[36473663.448870] RDX: 00005591e7e980d8 RSI: 0000000000000001 RDI: 00007ffeefb586e8
[36473663.448871] RBP: 0000000000000003 R08: 0000000000000000 R09: 0000000000000000
[36473663.448872] R10: 0000000000000000 R11: 00005591e7e980d7 R12: 0000000000000001
[36473663.448873] R13: 00007ffeefb58f2b R14: 0005b3218d061ac0 R15: 00007ffeefb5b110
[36473663.448876] Mem-Info:
[36473663.448881] active_anon:103502 inactive_anon:103644 isolated_anon:0
active_file:11 inactive_file:28 isolated_file:0
unevictable:0 dirty:0 writeback:0 unstable:0
slab_reclaimable:6881 slab_unreclaimable:11795
mapped:200 shmem:924 pagetables:5723 bounce:0
free:12159 free_pcp:177 free_cma:0
[36473663.448886] Node 0 active_anon:414008kB inactive_anon:414576kB active_file:44kB inactive_file:112kB unevictable:0kB isolated(anon):0kB isolated(file):0kB mapped:800kB dirty:0kB writeback:0kB shmem:3696kB shmem_thp: 0kB shmem_pmdmapped: 0kB anon_thp: 0kB writeback_tmp:0kB unstable:0kB all_unreclaimable? no
[36473663.448887] Node 0 DMA free:4392kB min:756kB low:944kB high:1132kB active_anon:5156kB inactive_anon:4388kB active_file:0kB inactive_file:0kB unevictable:0kB writepending:0kB present:15992kB managed:15908kB mlocked:0kB kernel_stack:16kB pagetables:376kB bounce:0kB free_pcp:0kB local_pcp:0kB free_cma:0kB
[36473663.448897] lowmem_reserve[]: 0 909 909 909 909
[36473663.448901] Node 0 DMA32 free:44244kB min:44296kB low:55368kB high:66440kB active_anon:408852kB inactive_anon:410188kB active_file:44kB inactive_file:112kB unevictable:0kB writepending:0kB present:1032172kB managed:993356kB mlocked:0kB kernel_stack:3360kB pagetables:22516kB bounce:0kB free_pcp:708kB local_pcp:708kB free_cma:0kB
[36473663.448906] lowmem_reserve[]: 0 0 0 0 0
[36473663.448910] Node 0 DMA: 20*4kB (UME) 9*8kB (UE) 27*16kB (UME) 25*32kB (UE) 13*64kB (UME) 7*128kB (UE) 3*256kB (UME) 1*512kB (E) 0*1024kB 0*2048kB 0*4096kB = 4392kB
[36473663.448924] Node 0 DMA32: 5*4kB (MH) 4460*8kB (UEH) 236*16kB (UEH) 107*32kB (UEH) 7*64kB (H) 3*128kB (H) 2*256kB (H) 0*512kB 0*1024kB 0*2048kB 0*4096kB = 44244kB
[36473663.449132] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=1048576kB
[36473663.449147] Node 0 hugepages_total=0 hugepages_free=0 hugepages_surp=0 hugepages_size=2048kB
[36473663.449149] 6868 total pagecache pages
[36473663.449151] 5896 pages in swap cache
[36473663.449153] Swap cache stats: add 105451532, delete 105445636, find 1375786355/1418920464
[36473663.449153] Free swap = 0kB
[36473663.449154] Total swap = 2097144kB
[36473663.449156] 262041 pages RAM
[36473663.449156] 0 pages HighMem/MovableOnly
[36473663.449157] 9725 pages reserved
[36473663.449158] 0 pages cma reserved
[36473663.449158] 0 pages hwpoisoned
[36473663.449160] [ pid ] uid tgid total_vm rss pgtables_bytes swapents oom_score_adj name
[36473663.449180] [ 404] 0 404 24427 0 90112 53 0 lvmetad
[36473663.449184] [ 408] 0 408 11305 81 114688 169 -1000 systemd-udevd
[36473663.449187] [ 621] 62583 621 35482 0 188416 183 0 systemd-timesyn
[36473663.449189] [ 697] 100 697 17992 0 167936 194 0 systemd-network
[36473663.449192] [ 715] 101 715 17689 0 176128 187 0 systemd-resolve
[36473663.449194] [ 889] 0 889 163096 0 163840 537 0 lxcfs
[36473663.449197] [ 891] 102 891 65759 42 163840 406 0 rsyslogd
[36473663.449199] [ 894] 0 894 7937 0 102400 77 0 cron
[36473663.449202] [ 896] 0 896 7083 0 102400 61 0 atd
[36473663.449204] [ 900] 103 900 12545 0 143360 200 -900 dbus-daemon
[36473663.449212] [ 907] 0 907 42752 2 237568 1979 0 networkd-dispat
[36473663.449215] [ 910] 0 910 17665 2 176128 207 0 systemd-logind
[36473663.449217] [ 914] 0 914 71996 32 204800 198 0 accounts-daemon
[36473663.449220] [ 919] 0 919 194250 1174 303104 3846 0 containerd
[36473663.449222] [ 920] 0 920 230106 2962 585728 8271 -500 dockerd
[36473663.449225] [ 925] 0 925 4103 0 77824 38 0 agetty
[36473663.449227] [ 931] 0 931 3722 0 73728 36 0 agetty
[36473663.449230] [ 939] 0 939 72220 0 200704 249 0 polkitd
[36473663.449237] [ 942] 0 942 18074 3 176128 187 -1000 sshd
[36473663.449240] [ 951] 0 951 46930 0 266240 2008 0 unattended-upgr
[36473663.449242] [22784] 0 22784 26418 41 225280 2854 0 systemd-journal
[36473663.449245] [25413] 0 25413 101377 0 122880 360 -500 docker-proxy
[36473663.449248] [25424] 0 25424 119810 0 126976 362 -500 docker-proxy
[36473663.449256] [25430] 0 25430 27189 62 73728 194 -999 containerd-shim
[36473663.449259] [25454] 0 25454 1666 1 49152 79 0 boot
[36473663.449261] [25534] 0 25534 578 6 40960 15 0 runsvdir
[36473663.449263] [25535] 0 25535 540 0 40960 26 0 runsv
[36473663.449266] [25536] 0 25536 540 0 40960 22 0 runsv
[36473663.449268] [25537] 0 25537 540 0 40960 24 0 runsv
[36473663.449270] [25538] 0 25538 540 0 40960 29 0 runsv
[36473663.449273] [25539] 0 25539 540 0 40960 24 0 runsv
[36473663.449275] [25540] 0 25540 540 3 40960 13 0 runsv
[36473663.449277] [25541] 0 25541 576 0 45056 35 0 svlogd
[36473663.449280] [25542] 105 25542 53482 35 159744 442 0 postmaster
[36473663.449282] [25543] 0 25543 13506 1 81920 282 0 nginx
[36473663.449284] [25544] 1000 25544 3783 58 57344 62 0 unicorn_launche
[36473663.449286] [25545] 0 25545 576 0 45056 25 0 svlogd
[36473663.449289] [25547] 0 25547 2110 27 57344 42 0 cron
[36473663.449291] [25548] 0 25548 39047 0 77824 203 0 rsyslogd
[36473663.449293] [25546] 106 25546 23422 738 192512 5508 0 redis-server
[36473663.449296] [25561] 33 25561 13971 190 86016 465 0 nginx
[36473663.449298] [25562] 33 25562 13647 34 73728 302 0 nginx
[36473663.449305] [25570] 105 25570 53537 43 417792 510 0 postmaster
[36473663.449308] [25571] 105 25571 53515 67 417792 459 0 postmaster
[36473663.449310] [25572] 105 25572 53482 32 147456 457 0 postmaster
[36473663.449313] [25573] 105 25573 53650 117 159744 494 0 postmaster
[36473663.449315] [25574] 105 25574 17255 135 135168 443 0 postmaster
[36473663.449318] [25575] 105 25575 53616 46 147456 510 0 postmaster
[36473663.449320] [ 4226] 1000 4226 2211682 0 1052672 65182 0 ruby
[36473663.449323] [ 4227] 1000 4227 2211682 0 1052672 65183 0 ruby
[36473663.449326] [ 4228] 1000 4228 2209633 1 1048576 63664 0 ruby
[36473663.449329] [ 5795] 1000 5795 2192955 0 901120 56821 0 ruby
[36473663.449331] [ 5796] 1000 5796 2192955 0 901120 56821 0 ruby
[36473663.449333] [ 5797] 1000 5797 2198075 0 942080 59138 0 ruby
[36473663.449335] [ 7772] 1000 7772 2191931 0 888832 60531 0 ruby
[36473663.449338] [ 7773] 1000 7773 2193980 0 892928 60533 0 ruby
[36473663.449340] [ 7774] 1000 7774 2201147 0 966656 58519 0 ruby
[36473663.449343] [ 2288] 1000 2288 2209634 0 1060864 61931 0 ruby
[36473663.449351] [ 2289] 1000 2289 2209634 0 1060864 61931 0 ruby
[36473663.449353] [ 2290] 1000 2290 2209634 0 1060864 62542 0 ruby
[36473663.449356] [ 5703] 1000 5703 85022 31182 630784 9841 0 ruby
[36473663.449358] [ 5769] 1000 5769 85061 13030 643072 37318 0 ruby
[36473663.449360] [ 5860] 105 5860 56272 91 311296 2231 0 postmaster
[36473663.449363] [ 5966] 1000 5966 2195273 31501 925696 25578 0 ruby
[36473663.449365] [ 6043] 105 6043 54544 368 352256 1199 0 postmaster
[36473663.449368] [ 6288] 1000 6288 597 0 40960 21 0 sh
[36473663.449370] [ 6289] 1000 6289 4448400 61634 1380352 48635 0 bundle
[36473663.449373] [ 7218] 1000 7218 597 17 40960 0 0 sh
[36473663.449375] [ 7219] 1000 7219 198147 65087 4608000 134 0 node
[36473663.449377] Out of memory: Kill process 6289 (bundle) score 142 or sacrifice child
[36473663.454341] Killed process 7218 (sh) total-vm:2388kB, anon-rss:68kB, file-rss:0kB, shmem-rss:0kB
[36473663.531344] oom_reaper: reaped process 7218 (sh), now anon-rss:0kB, file-rss:0kB, shmem-rss:0kB
1 个赞
Ed_S
(Ed S)
2020 年11 月 2 日 16:01
4
尽管需要短暂停机,我还是通过应用常规的变通方法完成了升级:
./launcher rebuild app
然而,鉴于 1GB 内存 + 2GB 交换空间是小型论坛的推荐最低配置,感觉这里似乎有些不对劲。
在重建过程中,虚拟内存的使用情况并不算太糟糕——在同一时段进行 uglifyjs 处理时的最低点如下:
# free
total used free shared buff/cache available
Mem: 1009264 380204 537900 5712 91160 510756
Swap: 2097144 498540 1598604
4 个赞
riking
(Kane York)
2020 年11 月 4 日 06:04
7
这可能与 Docker 管理器的更改有关,这些更改旨在升级期间让站点保持更长时间的运行,从而增加了升级期间的 RAM 需求。
容器重建始终可以正常工作,因为它会暂时停止站点,从而获得最大 RAM 资源。
3 个赞
system
(system)
关闭
2020 年12 月 4 日 06:04
8
This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.