Hoher Speicherverbrauch ohne Traffic?

Ich teste Discourse als möglichen Zielort für unser bestehendes Forum und versuche, die Anforderungen herauszufinden.

Derzeit betreibe ich den Discourse-Droplet auf einem Digitalocean-Knoten mit 4 vCPUs und 8 GB RAM.

Wenn die importierte vBulletin-Site hier ohne Traffic und ohne Aktivität läuft, verbraucht das System zunächst etwa 75 % dieser 8 GB RAM und steigt über mehrere Tage auf 100 %, dann reagiert es überhaupt nicht mehr.

Das verwirrt mich, da die Mindestanforderungen viel geringer zu sein scheinen.

(Ich habe den Container neu erstellt, ich habe Sidekiq-Aufgaben überprüft und gelöscht, die Auslastung ist immer noch hoch)

Hat jemand Tipps oder sollte ich nach einer Konfiguration mit viel RAM suchen, nur um das Forum am Laufen zu halten?

Wie viele Beiträge wurden importiert?

Das System könnte Beiträge neu backen und Bilder neu skalieren, was viele Ressourcen verbrauchen kann, selbst wenn Sie keine Benutzer haben. Sie können unter /sidekiq nachsehen, ob viele Jobs in der Warteschlange stehen und/oder ausgeführt werden. htop kann Ihnen auch Hinweise darauf geben, was gerade läuft.

3 „Gefällt mir“

Etwa 240.000 Beiträge.

Der Import erfolgte vor etwa 5 Wochen, seitdem gab es 5 App-Neuerstellungen, da dies das Speicherproblem zu lösen scheint, sobald der Container zu 100 % nicht mehr auf Speicher reagiert.

Alle Aufgaben in Sidekiq wurden, wie erwähnt, gelöscht und die Auslastung liegt immer noch bei 75 %.

Der Speicher-Graph, seit ich den Server gestern neu erstellt habe:

RAM: 8 GB

CPU

Traffic

Sidekiq

Für mich sieht es so aus, als ob er langsam seinen Speicher verliert, bis er in ein paar Tagen abstirbt… (was bisher beobachtet wurde.

1 „Gefällt mir“

Nach dem Importieren ist es für die Datenbankleistung immer ratsam, ein Backup zu erstellen und es in derselben Instanz wiederherzustellen.

Bezieht sich diese Speicher-Grafik auf den Cache oder schließt sie ihn aus? (d.h. wie sieht die Ausgabe von free -m aus?)

Gibt es Plugins?

1 „Gefällt mir“

## Plugins go here
## see https://meta.discourse.org/t/19157 for details
hooks:
  after_code:
    - exec:
        cd: $home/plugins
        cmd:
          - git clone https://github.com/discourse/docker_manager.git
          - git clone https://github.com/discourse/discourse-data-explorer.git
          - git clone https://github.com/discourse/discourse-solved.git
          - git clone https://github.com/discourse/discourse-cakeday.git
          - git clone https://github.com/discourse/discourse-spoiler-alert.git
          - git clone https://github.com/discourse/discourse-user-card-badges.git
          - git clone https://github.com/discourse/discourse-adplugin.git

Gute Idee. Etwas, das ich ausprobieren werde

Das machte die Website nicht mehr reagierbar.. (Backup erstellt.. Backup wiederhergestellt und dann neu gestartet)

RAM-Auslastung von 6 GB auf 7 GB gestiegen und Website reagiert nicht.

Es werden fast 5 GB von Redis verwendet, sodass Discourse wenig Spielraum hat, insbesondere wenn man bedenkt, wie viele Unicorns Sie betreiben.

Wenn Ihre Sidekiq-Warteschlange sauber ist, versuchen Sie, Redis zu bereinigen, da es möglicherweise zu viele Datenreste aus dem Import enthält:

./launcher enter app
redis-cli flushall
1 „Gefällt mir“

Verstanden, ich werde den Redis-Befehl ausprobieren.
Das Problem mit den Unicorn-Workern war eines, das ich schon früh überprüft habe. Ich habe sowohl die RAM-Nutzung für db_shared_buffers geändert als auch die Unicorn-Worker auf 3 gesetzt.
Die Einstellung der Unicorn-Worker scheint jedoch wenig bis gar keine Auswirkung auf die Anzahl der tatsächlich laufenden Worker zu haben.

Aus meiner app.yml-Datei

  ## Wie viele gleichzeitige Webanfragen werden unterstützt? Hängt vom Speicher und den CPU-Kernen ab.
  ## wird automatisch von bootstrap basierend auf den erkannten CPUs gesetzt, oder Sie können ihn überschreiben
  UNICORN_WORKERS: 3

Dieser flushall-Befehl hat Wunder gewirkt… runter auf 2 GB Speicherplatz… wir werden sehen, ob das jetzt so bleibt.

Der beunruhigende Teil war, dass die Dinge vorher einfach immer weiter wuchsen. Hoffentlich erlaubt dies der App, sich selbst besser zu verwalten.

Wie auch immer… also behält der Import Dinge dauerhaft in Redis? Das erscheint seltsam, aber ich habe keine Ahnung, wie Redis funktioniert, also

Vielen Dank für die Hilfe

2 „Gefällt mir“

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.