Ich würde gerne wissen, ob es Feedback bezüglich der Instanzgröße gibt. Ich möchte Discourse web_only auf Kubernetes hosten, mit einem externen PostgreSQL und Redis, die auf RDS und Elasticache gehostet werden, und etwa 2000 Benutzern. (Bin mir bei der Anzahl der Beiträge nicht sicher, wir migrieren von einem anderen System, zu dem ich keinen Zugriff habe)
Hat jemand Feedback zur Größe der Worker-Knoten, zum PostgreSQL-Instanztyp und zum Redis-Instanztyp?
Meine Frage ist sehr naiv, da ich nur die Hälfte der von Ihnen verwendeten Wörter verstehe, aber warum nicht den offiziellen Weg zur Installation von Discourse nutzen?
Das hängt stark von Ihrer Traffic-Last ab, aber da all diese Dinge relativ einfach zu ändern sind, empfehle ich Ihnen, eine Größe zu wählen und zu sehen, wie gut sie funktioniert. Ein Plan mit 3-10 App-Knoten zur Bewältigung des normalen Traffics ist wahrscheinlich eine gute Idee.
Solange die bereitgestellten Images mit unserem Launcher-Skript erstellt werden, wäre dies eine unterstützte Konfiguration. Dies würde unserer web_only-Beispielkonfiguration entsprechen, die sie bereits verwenden.
Wir könnten jedoch nicht bei der Kubernetes-Seite helfen.
Meine Frage ist noch naiver als die von @Canapin, aber erwartet ihr wirklich ein großes Wachstum? Denn mit 2000 Benutzern braucht ihr keine so große Skalierbarkeit. Oder plant ihr das nur, weil ihr es könnt (dagegen ist auch nichts einzuwenden)?
Um die verschiedenen Fragen zu beantworten, würde ich sagen, dass wir im Team große Fans von k8s sind, und dies ist eine Gelegenheit – da wir es uns leisten können, ist es cool –, Dinge auf unserem schönen Cluster zu tun.
Tatsächlich gibt es so viele Puzzleteile, wir erwägen auch, nur zwei Maschinen mit der reinen Web-Vorlage hochzufahren und DB und Redis auf dedizierten Maschinen zu belassen, was den Bereitstellungsprozess wirklich erleichtern würde.
Und ja, wir werden die Worker-Knoten anpassen, wenn wir sehen, dass sie ausgelastet sind, aber wir haben uns ein wenig gefragt, wo wir anfangen sollen. 2 CPUs 4 GB sahen für mich wie ein guter Anfang aus, aber mit Feedback wäre ich wohler
Sie müssen entweder das nicht unterstützte Bitnami-Image verwenden oder herausfinden, wie Sie ./laucher verwenden, um Ihr eigenes Image zu erstellen und es dann irgendwohin zu pushen, von wo aus Sie k8s dazu bringen können, es hochzufahren. Es ist nicht sofort ersichtlich, wie das geht.