合并的页面浏览量:在不阻止的情况下将 uptime crawler 排除在报告之外?

我已经设置了一个 Uptime Kuma 实例来监控我的论坛,现在,爬虫图表自然是飙升了。我知道可以通过点击图表键中的“Crawlers”来完全禁用爬虫,但我希望在后台排除“Uptime-Kuma”用户代理,同时仍然观察其他峰值。

@pfaffman你之前也提到过这个问题 – 你有没有想出什么办法?)

你可以访问 /srv/status,这不会被计算在内。你也可以尝试访问类似 /t/-/123.json 的地址,然后查找 title 或其他类似内容。我认为这不会被计为页面浏览量。

1 个赞

谢谢你,Jay! 我已将其添加到跟踪 URL,并且似乎已停止计入爬虫计数。

我忘了提,在此之前,我已长期使用 Uptime Robot,仅跟踪基本 URL。

有趣的是,今年以来 Discourse 仅报告了来自 Mozilla/5.0+(compatible; UptimeRobot/2.0; http://www.uptimerobot.com/)1 次访问

我想知道是否有些正常运行时间爬虫会自动被排除在报告之外……? :thinking:

1 个赞

很高兴听到这个消息。

在某些情况下,/srv/status 可以显示“ok”,但实际上并非如此。我认为有一个 communiteq 插件可以捕获更多情况,但我花了 10 秒钟也没找到。

我在源代码中没有看到 UptimeRobot。我敢肯定我记得过去 UptimeRobot 的点击曾被计算在内,但我使用 /srv/status 已经很长时间了。

1 个赞

我忘了这个了!!!我也找了 10 分钟才找到。

它在这里 https://github.com/communiteq/discourse-betterstatus,说实话,我不知道它是否还能用。如果它能用,它会做一个非常基础的检查,看看 Redis 和 Postgres 是否在工作。

2 个赞

This topic was automatically closed 30 days after the last reply. New replies are no longer allowed.