truman
(truman)
31. März 2025 um 05:57
1
Hier protokollieren:
[2025-03-31T05:52:21.927771 #1] INFO -- : > cd /var/www/discourse & if [ -f yarn.lock ]; then
if [ -d node_modules/.pnpm ]; then
echo "Diese Version von Discourse verwendet yarn, aber pnpm node_modules sind bereits vorhanden. Bereinige..."
find ./node_modules ./app/assets/javascripts/*/node_modules -mindepth 1 -maxdepth 1 -exec rm -rf {} +
fi
su discourse -c 'yarn install --frozen-lockfile & yarn cache clean'
else
su discourse -c 'CI=1 pnpm install --frozen-lockfile & pnpm prune'
fi
bash: line 1: 302 Killed CI=1 pnpm install --frozen-lockfile
I, [2025-03-31T05:52:29.299652 #1] INFO -- : Scope: all 17 workspace projects
Lockfile is up to date, resolution step is skipped
Progress: resolved 1, reused 0, downloaded 0, added 0
Packages: +455 -114
+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++-----------------
Progress: resolved 455, reused 170, downloaded 50, added 119
Progress: resolved 455, reused 170, downloaded 187, added 257
Progress: resolved 455, reused 170, downloaded 281, added 349
Progress: resolved 455, reused 170, downloaded 285, added 357, done
.../core-js@3.33.0/node_modules/core-js postinstall$ node -e "try{require('./postinstall')}catch(e){}"
.../node_modules/@swc/core postinstall$ node postinstall.js
.../esbuild@0.24.2/node_modules/esbuild postinstall$ node install.js
.../core-js@3.33.0/node_modules/core-js postinstall: Done
.../node_modules/@swc/core postinstall: Failed
FAILED
--------------------
Pups::ExecError: cd /var/www/discourse & if [ -f yarn.lock ]; then
if [ -d node_modules/.pnpm ]; then
echo "Diese Version von Discourse verwendet yarn, aber pnpm node_modules sind bereits vorhanden. Bereinige..."
find ./node_modules ./app/assets/javascripts/*/node_modules -mindepth 1 -maxdepth 1 -exec rm -rf {} +
fi
su discourse -c 'yarn install --frozen-lockfile & yarn cache clean'
else
su discourse -c 'CI=1 pnpm install --frozen-lockfile & pnpm prune'
fi failed with return #<Process::Status: pid 299 exit 137>
Location of failure: /usr/local/lib/ruby/gems/3.3.0/gems/pups-1.2.1/lib/pups/exec_command.rb:132:in `spawn'
exec failed with the params {"cd"=>"$home", "hook"=>"yarn", "cmd"=>["if [ -f yarn.lock ]; then\n if [ -d node_modules/.pnpm ]; then\n echo \"This version of Discourse uses yarn, but pnpm node_modules are preset. Cleaning up...\"\n find ./node_modules ./app/assets/javascripts/*/node_modules -mindepth 1 -maxdepth 1 -exec rm -rf {} +\n fi\n su discourse -c 'yarn install --frozen-lockfile & yarn cache clean'\nelse\n su discourse -c 'CI=1 pnpm install --frozen-lockfile & pnpm prune'\nfi"]}
bootstrap failed with exit code 137
** FAILED TO BOOTSTRAP ** please scroll up and look for earlier error messages, there may be more than one.
pfaffman
(Jay Pfaffman)
31. März 2025 um 20:52
3
Wenn ich mich recht erinnere, bedeutet Exit 137, dass der Speicher voll ist.
Fügen Sie mehr RAM und/oder erhöhen Sie den Swap-Speicher. Sie benötigen wahrscheinlich mindestens 5 GB Swap+RAM.
3 „Gefällt mir“
truman
(truman)
1. April 2025 um 02:07
4
total used free shared buff/cache available
Mem: 31Gi 4.1Gi 17Gi 3.5Mi 9.9Gi 27Gi
Swap: 8.0Gi 0B 8.0Gi
aber mein Server hat genug Arbeitsspeicher.. @pfaffman
2 „Gefällt mir“
pfaffman
(Jay Pfaffman)
1. April 2025 um 10:38
5
Das ist sehr seltsam. 137 bedeutet, dass der Job ein SIGKILL erhalten hat, was normalerweise auf Speicherüberlauf hinweist.
Es macht jedoch keinen Sinn bei so viel Speicher.
2 „Gefällt mir“
Ed_S
(Ed S)
2. April 2025 um 09:08
6
Das ist seltsam.
Überprüfen Sie vielleicht die Ausgabe von
sysctl vm.overcommit_memory
Und auch:
1 „Gefällt mir“
truman
(truman)
2. April 2025 um 09:16
7
cat /etc/lsb-release
DISTRIB_ID=Ubuntu
DISTRIB_RELEASE=24.04
DISTRIB_CODENAME=noble
DISTRIB_DESCRIPTION="Ubuntu 24.04.2 LTS"
$ uptime
02:12:36 up 21 days, 5:25, 2 users, load average: 0.02, 0.18, 0.26
$ df -h /
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg0--root-root--partition 492G 29G 463G 6% /
$ free
total used free shared buff/cache available
Mem: 32819356 4093776 19016296 3576 10185012 28725580
Swap: 8388604 0 8388604
$ swapon
NAME TYPE SIZE USED PRIO
/swap.img file 8G 0B -2
$ vmstat 5 5
procs -----------memory---------- ---swap-- -----io---- -system-- -------cpu------
r b swpd free buff cache si so bi bo in cs us sy id wa st
2 0 0 18944824 3620 10211784 0 0 2 81 1057 1 1 0 99 0 0
0 0 0 18965764 3620 10195160 0 0 0 123 8661 10955 3 6 91 0 0
2 0 0 18953904 3620 10203228 0 0 0 9 3388 3559 1 1 98 0 0
1 0 0 18864336 3620 10292272 0 0 3 3408 8327 10272 6 4 90 0 0
9 3 0 17795380 3620 10561284 0 0 1666 33519 29310 41403 27 27 44 1 0
dmesg|egrep -i "memory|oom|kill"
none
$ ps auxrc
USER PID %CPU %MEM VSZ RSS TTY STAT START TIME COMMAND
td20 347732 200 0.0 21408 5588 pts/1 R+ 02:16 0:00 ps
$ sysctl vm.overcommit_memory
vm.overcommit_memory = 0
@Ed_S
Mir ist aufgefallen, dass der Prozess schnell beendet wird, wenn die Speicherauslastung 1 GB überschreitet.
Ed_S
(Ed S)
2. April 2025 um 11:19
8
Danke… Es ist mir immer noch ein Rätsel. Aber ich würde dringend empfehlen, mit Overcommit zu arbeiten. Sie können es jetzt einstellen mit
sudo sysctl vm.overcommit_memory=1
aber es dauerte etwas mehr Mühe, es auch beim Neustart einzustellen. Es könnte alles zum Laufen bringen, in diesem Fall ist es richtig, es persistent zu machen. Es sieht so aus, als ob ich es getan habe, indem ich eine einzeilige Datei erstellt habe:
# cat /etc/sysctl.d/90-vm_overcommit_memory.conf
vm.overcommit_memory=1
Wenn das nicht hilft, fühlt es sich an, als ob ein Watchdog oder eine Quote nach Ressourcenüberlastung sucht und Prozesse beendet. Möglicherweise hilft ein genauer Blick auf die vollständige dmesg-Ausgabe - wenn Sie kürzlich den Ausfall hatten, könnten die letzten 100 Zeilen vielleicht einen Hinweis geben.
1 „Gefällt mir“
david
(David Taylor)
Geschlossen,
7. April 2025 um 07:00
10
Dieses Thema wurde nach 2 Tagen automatisch geschlossen. Neue Antworten sind nicht mehr möglich.