Extrierter Ladefehler nach Upgrade auf 3.3.0.beta3-dev gestern (lokal)

Gestern auf 3.3.0.beta3-dev aktualisiert und auch das KI-Plugin installiert. Das Plugin ist derzeit nur für Mitarbeiter (5 Personen) aktiviert.

Aber die gesamte Website ist extrem langsam, ich bekomme extreme Ladefehler. Ich kann nicht herausfinden, woher es kommt, meine Serverauslastung scheint in Ordnung zu sein.

Gibt es eine oder mehrere Stellen, an denen ich herausfinden kann, was die Ursache ist?

Hier ist, was ich im Crawler-Bericht sehe, ich bin mir nicht sicher, ob es gut oder schlecht ist oder was. Ich habe keinen Bezugsrahmen.

Auf meinem Server sehen die Unicorn-Prozesse ziemlich beschäftigt aus

Ist das die Ursache? Brauche ich mehr CPU? Oder nur mehr Unicorns?

Ist es eine Weile her, seit Ihr letztes Upgrade stattgefunden hat? Vielleicht führt es eine Art Bildverarbeitung oder Neuberechnung durch.

Sie können unter /sidekiq nachsehen, was es tut.

Warteschlangen sind leer

Ich weiß nicht wirklich, was der Rest davon bedeutet.

Ich bin mir nicht sicher, was hier normal ist… Hier sind die Spezifikationen unseres Servers
image

Alles neu gestartet, alles war wieder normal, aber jetzt haben wir wieder extreme Last. Ich kann nicht herausfinden, woher das Problem kommt. Gibt es Werkzeuge, die bei Discourse helfen können?

Also die 3 Einhorn-Mitarbeiter
image

sind beschäftigt… aber wir bekommen keinen höheren Traffic als normal, soweit ich das beurteilen kann, es ist ungefähr gleich wie bisher. Die einzige Änderung war das Upgrade auf 3.3.0 und das Hinzufügen des KI-Plugins, aber es ist nur für Mitarbeiter verfügbar.

Probleme begannen gestern 03.06.

Wir haben anscheinend ein paar mehr Crawler.

Hier sind nur Crawler über einen Monat, aber auch hier scheint es nicht viel höher zu sein. Die Seite ist fast unbenutzbar.

Jede Hilfe wäre willkommen!

Dies ist eine Vermutung, aber das Einzige, was mir in den Sidekiq-Protokollen auffällt, ist, dass der angezeigte Job NotifyMailingListSubscribers ist. Dieser Job kann potenziell viele Anfragen erstellen.

Sehen Sie auch Fehler auf Ihrer Seite Admin / Protokolle / Fehlerprotokolle?

Ich habe einen Block zum Facebook-Crawler hinzugefügt, da dieser Kerl Amok lief
image

Ich habe jedoch festgestellt, dass das Hinzufügen von “slow” / “crawlers” meine robots.txt nicht aktualisiert

aber robots.txt zeigt die “slow”-Einträge nicht an, nur die “block”-Einträge.

Einige davon

Ich sehe 3 Fehler, aber sie scheinen nicht zusammenzuhängen… (obwohl es schwer zu sagen ist)

Job exception: PG::DatetimeFieldOverflow: ERROR:  timestamp out of range: \"271768-09-23 06:24:11.793040 BC\"
LINE 1: ...sers\".\"moderator\" = FALSE AND (users.created_at < '271768-09...
                                                             ^
ActionDispatch::RemoteIp::IpSpoofAttackError (IP-Spoofing-Angriff?! HTTP_CLIENT_IP=\"10.10.121.119\" HTTP_X_FORWARDED_FOR=\"14.140.10.244, 14.140.10.244\")
app/controllers/topics_controller.rb:1298:in `track_visit_to_topic'
app/controllers/topics_controller.rb:169:in `show'
app/controllers/application_controller.rb:422:in `block in with_resolved_locale'
app/controllers/application_controller.rb:422:in `with_resolved_locale'
lib/middleware/omniauth_bypass_middleware.rb:64:in `call'
lib/content_security_policy/middleware.rb:12:in `call'
lib/middleware/anonymous_cache.rb:391:in `call'
lib/middleware/csp_script_nonce_injector.rb:12:in `call'
config/initializers/008-rack-cors.rb:14:in `call'
config/initializers/100-quiet_logger.rb:20:in `call'
config/initializers/100-silence_logger.rb:29:in `call'
lib/middleware/enforce_hostname.rb:24:in `call'
lib/middleware/request_tracker.rb:291:in `call'

Und eine weitere Job-Ausnahme bezüglich SMTP

Discourse führt seine eigene Ratenbegrenzung durch, es verlässt sich nicht auf robots.txt

Danke Michael,

Haben Sie noch andere Ideen, was es sein könnte? Würde es helfen, mehr Einhörner zu drehen?

Wird das aus der app.yml gemacht?

Ja, das würde wahrscheinlich helfen.

env:
  UNICORN_WORKERS: 8

in der app.yml erledigt das.

Ich empfehle, Leistungszahlen mit dem Prometheus-Plugin abzurufen, falls Sie dieses eingerichtet haben, oder Sie können Performance-Header verwenden.

Die Analyse Ihrer Web-Logs sollte sehr hilfreich sein, um herauszufinden, warum Ihr Server so beschäftigt ist; es sieht so aus, als ob Crawler ein guter Anfang wären.

2 „Gefällt mir“

Nun auf eine neue DO-Instanz aufgerüstet, RAM und CPU verdoppelt. 8 Unicorns (vs 3) hinzugefügt, Db neu indiziert und vakuumert, und ich denke, wir sind wieder im Geschäft!

Danke für die Hilfe

3 „Gefällt mir“

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.