过多的数据会导致变慢并需要重置吗?

我一直在观察一个流量巨大的 Discourse 论坛,这导致了速度变慢。他们说有一种传统,就是重置论坛并重新开始。这样做的理由是,随着论坛数据和流量的增长,它需要更多的资源,如内存(RAM)、中央处理器(CPU)和磁盘空间,从而显著增加成本。

这有根据吗?有没有高流量经验的人能解释一下,即使有缓存和其他优化,高流量是否真的需要性能越来越强的服务器?

关于他们服务器的背景信息:

当前的问题不是基础设施(CPU/内存/存储)问题,而是收入问题。
上一次升级很昂贵,我们负担不起。
重置是必要的,以便获得更便宜的“小水滴”(droplet)(存储空间更少,因为所有内容都将被删除)。

扔掉你社区的历史记录真的没有意义,除非去年人们说的话完全不重要。Slack 默认会删除一些旧的(几个月前的)东西,我记得是这样。

你的数据库有多大?你的成本问题是关于磁盘空间吗?有更便宜的方法来获取更多空间(例如,将图片推送到 S3)。如果数据库非常大,那么确实,你可能需要更多的内存来支持它。

你遇到性能问题了吗?论坛变慢了吗?

我的观点是这个实例没有使用代理或缓存,也许他们使用的是每天 9 欧元的 droplet/云,所以我很想知道他们使用云而不是 VPS KVM 或裸金属是否是这些天出现如此多中断的原因。

没有!我正在关注一个我已经是老用户的实例的中断情况,是的,内容很重要,但我不太明白一个不允许上传的实例,为什么会因为大量数据而频繁中断。

他们可能托管在:

https://upcloud.com/pricing/

是否有任何情况下,一个 Discourse 实例即使禁用了上传,也因为大量数据而需要重置所有数据或迁移到另一个配置?

如果没有关于服务器内存、CPU和数据库大小的数据,推测问题可能出在哪里是愚蠢的。这可能是一个配置问题。

如果你指的是他们使用2GB内存的2欧元/月的服务器,并且论坛已经存在了很长时间,那么可以想象他们需要将服务器大小增加一倍。

1 个赞

你说得对,不用管了 :sweat_smile:

1 个赞