Diskurs in Kubernetes (K8S)

Hallo. Mein Unternehmen versucht, Discourse in unserer Infrastruktur für Benutzerinhalte einzurichten. Daher habe ich ein Image mit Ruby-Code und einem Helm-Chart erstellt. Die Anwendung wurde ohne Probleme in Kubernetes bereitgestellt. Allerdings hatte unser Content-Manager Probleme mit der Admin-Seite – dort wurde ein alter Wert für ein geändertes Feld angezeigt. Ich habe die Datenbank überprüft – alles war in Ordnung. In der Tabelle site_settings sah ich den neuen Wert. Daher habe ich beschlossen, zu untersuchen, wie der Server gestartet wurde. Dabei stellte ich fest, dass der Puma-App-Server mit 4 Workers gestartet wurde. Ich habe die Anzahl der Workers auf 1 reduziert, und das Problem war gelöst. Meine Frage lautet also: Wie sollte ich dies für ein Clustering-Setup beheben? Gibt es einen geteilten Setting-Cache für Discourse?

2 „Gefällt mir“