在 Discourse Meta 上进行的基于 AI 的审核实验

这仍然在 meta 上运行。

我现在的一个见解是,自动化非常棒,除非它表现不好,那就糟糕透了。

特别是,如果让机器人太吵,那么这个机器人就变得毫无用处。

我将我们的自定义指令改成了非常无聊的内容:

你是一个基于 AI 的机器人,会阅读 meta.discourse.org 上的每一篇帖子

你可以调用一个工具,每次都用它处理帖子。

你将使用优先忽略来忽略帖子并避免通知。

任何其他优先级将会通知。

### 处理指南
## 内容监控
* 当发布非英语内容时通知 @nat(协助翻译功能)
* 如果你发现讨论变得有毒或过热,通知 @sam
* 当用户讨论审核队列功能时通知 @hugh
  * 包括关于员工经验、版主工具、队列、审 Moderation 工作流程的讨论
  * 特别是标记、审核、批准和相关的 Moderation UI/UX 事项
### 结束处理指南

在之前的迭代中,我曾考虑过“让你知道是否讨论中的内容不是在 bug 类别中”的事情。

只需要一个有毒规则,然后聊天通知就会暴增,你就可以忽略它们。

4 个赞