Discourse AI中的毒性检测下一步是什么

今天我们宣布告别 Discourse AI - Toxicity 模块 :waving_hand:,转而使用 https://meta.discourse.org/t/discourse-ai-post-classifier-automation-rule/281227,利用大型语言模型 (LLM) 的强大功能提供更优越的体验。

我们为什么要这样做?

以前使用 Toxicity 模块意味着……

  • 您只能使用一个预定义的模型
  • 无法针对您社区的特定需求进行自定义
  • 令人困惑的阈值指标
  • 性能不佳

LLM 已经取得了长足的进步,现在可以提供性能更好且可自定义的体验。

有什么新功能?

Discourse AI - AI triage 可用于对帖子进行毒性(以及其他方面)的分类,并强制社区遵守特定的行为准则。这意味着……

  • 支持多种 LLM 以满足不同的性能要求
  • 轻松定义内容的处理方式和内容
  • 可自定义的提示以满足社区的特定需求
  • 标记内容以供审核

以及更多。

为了协助过渡,我们已经编写了指南

Toxicity 会怎么样?

此公告应被视为非常早期,在我们准备停用之前,您可以继续使用 Toxicity。当我们这样做时,我们将停用该模块,并从 Discourse AI 插件和相关服务中删除所有代码。

:backhand_index_pointing_right:t5: 更新: Toxicity 模块已正式从 Discourse 中移除,包括所有相关的站点设置和功能。我们现在敦促用户过渡到使用 Discourse AI - AI triage,并遵循上述指南。

企业客户将在其站点的管理设置的“新增功能”下看到以下内容,允许他们免费启用 Discourse 托管的 LLM 来支持 AI 分类。

6 个赞

毒性模块是否有截止日期?

3 个赞

我们还没有确定具体日期,但目前正在努力尽快完成。

3 个赞

这对我目前为社区领袖学院撰写的一篇文章、我的关于毒性的博士论文以及更多内容都极其相关。你们是否愿意为我的YouTube频道做一个关于这个系统的幕后采访,作为我关于让在线社区免受毒性侵害系列的一部分?这也可以作为我博士学位的学术研究。

你们愿意吗?

2 个赞

感谢您考虑 Discourse 作为您 YouTube 频道的合作平台!您能否通过电子邮件向 mae@discourse.org 发送更多详细信息,说明幕后采访的具体内容以及我们需要提供哪些支持?

2 个赞

关于以下更改的通知

2 个赞

谢谢 Mae!我已跟进!

1 个赞

温馨提示:我们现在将隐藏用于启用/禁用“毒性”和“NSFW”的网站设置。这是我们持续弃用这些功能的努力的一部分。

如果您已开启这些功能,它们将继续正常运行。我们尚未完全弃用这些功能。

如果您已关闭这些功能但希望开启,现在将无法进行操作。

1 个赞

各位朋友,想在此发布此更新

1 个赞