Discourse AI中的NSFW检测的下一步

如果您看过我们之前的公告,您就会知道我们正在转向偏好使用大型语言模型(LLM)解决方案,因为它们提供了更优越的体验。因此,不久我们将弃用 NSFW 模块,转而使用 Discourse AI Post Classifier - Automation rules (见下文更新)

我们为什么要这样做?

原因相同……

有什么新内容?

NSFW 会怎么样?

此公告应被视为非常早期的通知,在准备好弃用之前,您可以继续使用 NSFW。届时,我们将弃用该模块,并从 Discourse AI 插件和相关服务器服务中删除所有代码。此弃用在 AI Triage 准备好处理图像之后才会发生,这很快就会完成。

:backhand_index_pointing_right:t5: 更新: NSFW 模块现已正式从 Discourse 中移除,包括所有相关的站点设置和功能。我们现在敦促用户过渡到使用 Discourse AI - AI triage 并遵循上述指南。

企业客户将在其站点的管理设置的“新内容”下看到以下内容,允许他们启用 Discourse 托管的 LLM 以零额外成本为 AI 审理提供支持。

9 个赞

关于以下更改的通知

2 个赞

这部分现已完成,请通过 AI Triage 配置和使用支持视觉的 LLM 来进行图像检测

提醒一下,我们尚未弃用 NSFW 模块。这还需要一些时间。

这里有一份新指南:

3 个赞

温馨提示,我们现在将隐藏用于启用/禁用“毒性”和“NSFW”的网站设置。这是我们持续弃用这些功能的努力的一部分。

如果您已开启这些功能,它们将继续正常运行。我们尚未完全弃用这些功能。

如果您已关闭这些功能但希望重新开启,现在将无法进行操作。

1 个赞

各位朋友,在此发布此更新