在 Discourse Meta 上进行的基于 AI 的审核实验

我最新的进行中的工作是:

我的想法是,将有两个角色来驱动系统:

  1. 执行分类的角色 - 今天已经定义好的那个(triage bot)
  2. 与版主/高信任度用户交互的角色(mod bot)

通过与 @mod_bot 聊天,版主(或非常高信任度的用户)将能够指导 @triage_bot 如何行事。

例如:

@mod_bot, 确保在有人谈论 ai 时通知 @sam

这将触发 mod_bot 修改 triage bot 的系统提示。这意味着,只要在这个特定的聊天室里,任何社区都可以训练机器人按照他们想要的方式行事。

这是对实现记忆的一个有趣的转折。不确定它在实践中效果如何,但这是一个非常有价值的实验。

5 个赞