今天我们宣布告别 Discourse AI - Toxicity 模块
,转而使用 https://meta.discourse.org/t/discourse-ai-post-classifier-automation-rule/281227,利用大型语言模型 (LLM) 的强大功能提供更优越的体验。
我们为什么要这样做?
以前使用 Toxicity 模块意味着……
- 您只能使用一个预定义的模型
- 无法针对您社区的特定需求进行自定义
- 令人困惑的阈值指标
- 性能不佳
LLM 已经取得了长足的进步,现在可以提供性能更好且可自定义的体验。
有什么新功能?
Discourse AI - AI triage 可用于对帖子进行毒性(以及其他方面)的分类,并强制社区遵守特定的行为准则。这意味着……
- 支持多种 LLM 以满足不同的性能要求
- 轻松定义内容的处理方式和内容
- 可自定义的提示以满足社区的特定需求
- 标记内容以供审核
以及更多。
为了协助过渡,我们已经编写了指南
Toxicity 会怎么样?
此公告应被视为非常早期,在我们准备停用之前,您可以继续使用 Toxicity。当我们这样做时,我们将停用该模块,并从 Discourse AI 插件和相关服务中删除所有代码。
更新: Toxicity 模块已正式从 Discourse 中移除,包括所有相关的站点设置和功能。我们现在敦促用户过渡到使用 Discourse AI - AI triage,并遵循上述指南。
企业客户将在其站点的管理设置的“新增功能”下看到以下内容,允许他们免费启用 Discourse 托管的 LLM 来支持 AI 分类。

