我正在寻找将人工智能集成到我的 Discourse 论坛以协助审核的方法。我不希望它取代我的版主,我只是需要帮助捕捉人类通常看不到的东西。有时,这是因为这些问题对版主来说实际上是看不见的(例如,一个垃圾邮件发送者从同一个 IP 地址创建了多个帐户)。其他时候,它对版主来说是可见的,但很容易变得懒惰而错过这些事情(例如,一个帖子被发布到错误的类别,或者一个帖子跑题了)。
人工智能版主可以帮助完成无数的任务。我能想到的一些想法:
监控所有新帖子,以指示它们是垃圾邮件发送者还是合法用户的可能性。
监控新用户及其活动,直到他们达到一定的信任级别。
捕捉被暂停后创建新帐户的问题用户。
识别被发布到错误类别的帖子,并提供应将其移至哪个类别的建议。
标记并立即删除 NSFW 内容。
识别帖子中的对话何时跑题或应被锁定。
识别何时某个帖子已被涵盖,应被重定向。
识别何时某个用户创建了多个帐户(来自同一 IP 地址的多个用户登录)。
识别何时用户正在发布自我推销或不相关的帖子。
更不用说(这将是朝着稍微不同的方向发展),有时人工智能甚至可以以清晰标记的人工智能个人资料回复某些帖子。例如,如果有人发布了关于如何使用论坛或在哪里找到某个功能(例如如何更新他们的个人资料)的问题,机器人可以回复,识别出这是一个它可以轻松回答的问题,然后它可以介入并解释如何做到这一点。
我在这里几乎只是触及了表面,但根本问题是:是否有人创建了可以协助 Discourse 中这些类型审核任务的人工智能机器人?
如果没有,是什么阻碍了这种创新?这对论坛管理员来说似乎会非常有帮助,而不是取代人类(尽管在某些情况下这可能是可能的),而是帮助人类更好地完成工作。
Jagster
(Jakke Lehtonen)
2024 年3 月 12 日 15:21
2
Seth Williams:
是什么阻碍了这类创新?
我不知道,但我想猜测:人工智能非常不可靠,而且可能非常昂贵。
其中一些选项已经可行,尽管如此。而且它们并没有被广泛使用,主要是因为,嗯,人工智能不可靠,需要有人看着它。
一个能够跟踪所有帖子并在被内容触发时介入的应答机,在硬件和纯粹的金钱方面肯定很昂贵。但是,一个可以在类别级别回答每个主题发起者的模型已经可行。
然后有一些东西,比如监控 IP,在没有人工智能的情况下很容易做到,但这确实有问题。拥有相同的 IP 是很常见的。
您是否查看过 Discourse AI 和 Discourse Chatbot?
1 个赞
sam
(Sam Saffron)
2024 年3 月 13 日 01:19
3
您是否了解了 Discourse AI 的当前功能?它已经支持通过大型语言模型(与自动化结合)进行自动标记。
1 个赞
我昨天才从 @Jagster 那里听说这件事(谢谢 Jakke 的提醒)。我对此进行了一些研究,特别是 高级版本 … 如果我没理解错的话,实现这个功能似乎会相当昂贵,无论是通过企业托管账户还是一个相当强大的自托管服务器。
无论如何,很高兴知道这个选项已经存在。它似乎满足了一些重要的需求,但我能想到更多利用它的方式。我期待着在未来几个月和几年里看到它的持续发展。这类东西有巨大的潜力!
1 个赞
这有很多潜在的积极方面,但也存在很多风险和缺点。
Stack Exchange 有一个人工智能机器人,可以审查答案,如果答案看起来不清楚,它会提醒作者:
“按目前写法,您的答案不清楚。请编辑 以添加更多细节,帮助他人理解这如何回答了所提出的问题。您可以在帮助中心找到更多关于如何写好答案的信息。” - 社区机器人
这种提示可以极大地帮助激发更清晰的解释,并避免人们因不清楚的答案而感到困惑、沮丧或恼火。
aas
2024 年6 月 26 日 16:32
6
在您自托管的实例上,它并不消耗大量资源,因为您可以使用托管模型,例如 OpenAI。因此,您只需为嵌入和聊天的 API 调用付费。
我为客户构建了一个自定义集成,使用了 Discourse。
收集了过去的审核活动,并训练了一个 NLP 模型来标记需要关注的主题和评论。
添加了一个毒性审核器,该审核器也基于他们过去的审核活动进行训练。
添加了一个情感集成,以帮助快速解决评论。
训练在 Google Colab 中完成,模型加载到 GCP 中,通过 discourse 网页钩子提供 API 服务。
jenmck
(jen)
2025 年9 月 27 日 04:26
11
我喜欢使用论坛,因为我们都是有共同兴趣或目标的人。当有人对问题给出不正确的答案时,其他用户肯定会出现提供更正。我想,如果人工智能给出不正确的回复,也会发生同样的情况,但这感觉不一样。阅读他人解决问题的方式也有助于我们自己的思考,我经常从阅读某人深思熟虑的回复中获得新的思考方式,或者学到一种我以为自己已经知道如何做的新方法。
另一个考虑因素是误报的可能性,这会(并且确实会!)将人们拒之门外。如果我作为一个新用户访问一个论坛,并且机器错误地标记/记录了我的帖子或暂停了我,而这显然不应该发生,我……很可能就不会再回来了,因为我会要么离开网站而忘记它,要么就是烦恼得不想去解决它。
我认为将人类元素从审核中移除的冲动是朝着错误的方向发展的。审核有时可以有可预测的规则——例如,我们有“监视词”功能,或者匹配IP地址来处理这类事情。但是使用算法来处理模糊的事情只会导致永无止境地追求完美的算法,从而将注意力从建立一个更健康的社区转移开,在这个社区中可以解决根本行为问题。归根结底,我希望用户能够改变行为,而且我必须相信他们有能力做到这一点。
常规问题是人们建立人际联系的机会,而这些接触点对于培养将支持你论坛的长期用户至关重要。一个友善的面孔出现来回答一个简单的问题,可以营造一种AI无法比拟的受欢迎的氛围。从社区建设的角度来看,这是唾手可得的成果!
2 个赞