是什么阻止你尝试 Discourse AI?

今年我们的目标是提高 Discourse AIhttps://meta.discourse.org/t/official-discourse-ai-plugin/259214)和其功能采用率。我想全面了解一下是什么阻碍了您在社区中试用 Discourse AI。

我明白可能存在一些具体的功能方面可能令人烦恼,但在此我试图了解那些令人困扰的原因的宏观图景。

此外,如果您愿意通过电话与我交流,我将非常感谢您的任何反馈 :folded_hands:

9 个赞

人工智能滥用。我指的是人们使用人工智能来,比如,写所有东西。这让人类变得毫无价值,但这对于所有人工智能来说都是不可避免的。但我很快就会(如果我付得起的话)!

9 个赞

是的,我明白了,我们正考虑让 Discourse AI 成为您 Discourse 之旅中的一个有用的助手,而不是依赖它来“编写”一切;同时也要让人们意识到,正在展示的内容是为 GenAI 功能而生成的 AI 内容。

7 个赞

在我们的社区中,用户会用垃圾答案或教程解决方案进行垃圾信息轰炸,这在 ChatGPT 刚推出时非常普遍……

4 个赞

我希望能够手动将单个帖子分配给一个或多个AI角色作为其知识库。

3 个赞

此时价格如此昂贵,而且我不想让用户在关注人类讨论时进行打字或创建 AI 内容。

5 个赞

我们还没有使用 Discourse(评估仍在进行中),但从概念上讲,有两个主要障碍:

  1. 我们的社区主要是桌面角色扮演游戏爱好者,人们非常重视人类的创造力——因此,有相当一部分用户对生成式人工智能持负面看法。也有很多对新工具的实验,但实际上任何生成式人工智能的使用都需要仔细考虑。

  2. 我们是自托管的,并且预算有限(由我们的一些用户捐助)——这足以托管 Discourse(或任何其他社区软件)的体面服务器,但当前作为服务的 LLM 产品和专用 GPU 服务器的成本都太高,无法纳入预算。预期的收益也太低,不足以证明其合理性。

7 个赞

我同意上面的一些评论,特别是担心人们使用人工智能写太多内容,导致越来越难区分人类“写”的内容和非人类写的内容。

然而,我认为我更大的担忧是使用远程人工智能。我经常在我的 Discourse 论坛有多公开的问题上犹豫不决,我想我只是对如今人工智能 API 的隐私侵犯程度没有一个衡量标准。

我认为,如果能有更强大、更便宜的自托管甚至设备端的大型语言模型(LLM),我会感觉更自在。我不确定设备端 LLM 如何能让 Discourse 受益,但如今使用远程 LLM 让我感到犹豫。

3 个赞

由 Discourse 托管的开源大语言模型(LLM)会比其他第三方提供商让你感觉更自在吗?(尽管可能还是不如设备端?)

9 个赞

也许有一点,但我认为我更倾向于自托管或设备端(同样,如果这甚至可以用于自托管论坛的话)。

也许如果它是 Discourse 托管的,并且可以选择自托管,就像现在的 Discourse 一样,是的,我会对此更感兴趣。到那时,我认为我的担忧将转向 LLM 输出的质量和运行成本。

7 个赞

我怀疑您想听取比我的社区更成熟的人的意见,但我还是想说一下。

我的 Discourse 站点可以添加一些由人工智能驱动的功能,但我感兴趣的是这些“功能”,而不是它们是由人工智能驱动的事实。

例如,我非常想使用语义搜索和自动标记帖子(以便以后由人工审核)的功能。即时翻译帖子也是很有用的。

以下是一些关于营销的例子:

  • 当您通过 Google 翻译文本时,他们不会说“使用人工智能翻译”,他们只是提供翻译文本。

  • 当您在 Google 上搜索时,他们不会说“使用人工智能搜索”,即使人工智能也参与了返回(目前不佳的)搜索结果。

  • 当 Soundcloud 为上传的曲目建议标签时,他们不会说“使用人工智能标记”,用户界面只是建议一些标签——用户不会被鼓励去思考(令人惊叹的)技术,该技术允许系统根据对上传曲目的分析来建议合适的标签。

一些与人工智能相关的功能,特别是任何与聊天机器人相关的功能,可能会违背在线社区的宗旨。将所有与人工智能相关的功能归入“Discourse AI”标题下,您可能会疏远那些可能觉得这些功能(恰好由人工智能驱动)非常有用的论坛用户。

我不是营销天才,所以以上内容仅供参考。

30 个赞

AI 驱动的必备工具,可帮助进行审核,对我来说没问题。我想生成图像,但我拒绝所有使用 AI 创建图像的方式,因为这会失去社区精神。

社交媒体正在走向消亡是有原因的,这就是重点。

2 个赞

我正在使用它。在我的论坛上,AI 被用来解释事物[1]。但我不允许普通会员使用它,因为它太贵了——我的规模是每月 50 美元就已经非常昂贵了 :wink:

但对我来说,它的主要问题不是 AI 的错,而是创建像样的知识库需要大量工作。但对我来说,AI 最大的弱点是它对嵌入的使用非常糟糕,然后社区创建的内容不够好。

是的,我知道。这主要源于 OpenAI 的限制。而且这项技术不像声称的那样已准备好投入生产。另外还有语言障碍。

锦上添花的是:创建良好的提示真的很难。几周后,有些东西会改变,提示必须再次修复。

有一天,它可能会帮助处理一些后台工作。但当我看到团队在日常总结等方面苦苦挣扎(从我的角度来看,是浪费时间和金钱,抱歉 :woozy_face:)时,我认为它需要太多这样的工作,而这些工作实际上并不能增加收入,无论是以美元还是幸福感来衡量。它并没有减轻管理员和开发人员的工作量,反而增加了它。

当然,那些每月花费 1 万美元还不到购买能量饮料库存的十分之一的大公司,可以也应该使用 AI 自动化事物,包括通过 Diacourse 的支持论坛。这就是 CDCK 的目标,也必须是其目标——但我不知道有多少人在这里发表他们的想法。


  1. as: 解释棒球规则并猜测它为什么如此受欢迎,即使它很慢甚至很无聊 ↩︎

4 个赞

似乎普遍的观点是,GenAI 要么会引起问题,要么有可能在社区中造成混乱,从而破坏自然的交流和人类的创造力。我认为在 Discourse AI,我们正试图在其中取得平衡,使其仅用于增强您的写作,而不是完全代替您写作。

@simon 关于“在功能中使用 AI”的观点很棒,当然其背后的品牌推广可能会让一些人望而却步,反之亦然,也会让人们欣赏他们正在与 AI 互动这一意识。

8 个赞

主要受其并非免费这一事实的阻碍。

7 个赞

我们为互动小说爱好者、创作者、作家和艺术家经营着一个小型创意社区。我们通常不会遇到管理职责过重的问题,我们的版主和社区中的许多人乐于回答问题。所以我们不会使用人工智能来“做论坛工作”。

虽然我们经常在“文本生成”的背景下讨论人工智能,因为它与我们创作的游戏有关,而且许多人对此感兴趣,但我们已经制定了一条规则,即不允许在人工智能构造“假装”成真实论坛用户并试图通过图灵测试来欺骗人们的情况下发布实际由人工智能生成的内容。我们不希望我们的论坛被用作人工智能的测试场地,也不希望我们从 2006 年开始的原始内容被用作抓取文本内容的字段。

如果人们出于自己的目的发布人工智能生成的内容,作为写作助手或用于演示他们正在构建的游戏,我们要求他们声明其性质或像引用来源一样引用它,因为它在技术上不是“他们自己的”材料。我们曾有几名垃圾邮件发送者试图通过(我猜)将一个主题输入到像 ChatGPT 这样的人工智能中并发布结果来参与并提高信任度,使其看起来像是合法的论坛参与。由于我们整个艺术流派都是创作一个“响应”用户交互的文本作品(想想 Zork 这样的文字冒险游戏),大多数人可以很容易地识别出机器生成的内容并进行标记。

人工智能或大型语言模型无法同意服务条款和行为准则。如果它冒犯了任何人,也没有办法进行管理。由于我们期望用户在此类内容方面保持透明,因此我们的网站在论坛内容和回复中使用任何形式的人工智能生成内容可能都是虚伪的。

我们还不得不平息一场可能爆发的争吵,因为我们的许多用户是平面艺术家,他们对自己的在线作品被盗用作为人工智能艺术的素材非常敏感,而一个关于在游戏中​​使用人工智能艺术的话题很快就演变成了对那些对此持肯定态度的人的个人攻击。因此,人工智能是我们必须密切关注的主题之一,以确保它不被在故意抄袭的背景下讨论。

TL;DR:人工智能是一个敏感的问题,我们不得不制定相关规则,所以我们可能不应该在充斥着大量艺术家和作家的论坛中使用它。

11 个赞

我们厌倦了人工智能的潮流,因为它主要会产生大量垃圾,并对环境造成损害。我等不及这个泡沫破裂,每个人都痴迷于下一个愚蠢的东西,或者更好的是,专注于一些真正有用的东西,或者只是改进大家最近都忽略的基本功能,因为每个人都在做同样的事情,而且这是那些永远无知的投资者现在正在投入资金的东西……

这可能不是您想要的答案,但这是实话。 :slight_smile:

7 个赞

这里的主要障碍是:内部对第三方工具和数据访问的限制(需要获得许可才能开始),以及缺乏估算成本(令牌使用量等)的明确方法,这阻碍了我们获得预算批准来开始使用新工具。

我很想开始使用其中的一些工具,特别是情感分析报告。尽管如此,在了解这些工具和实施它们之间似乎存在一个巨大的差距。

此外,还有一些附带的担忧,即在我们社区中引入更多生成式人工智能内容:这是影响我们社区成员及其生计的最关键话题。我们还看到大量新论坛账户发布显而易见的帖子人工智能摘要(以及一些相当不准确的尝试来“回答”现有帖子中的问题),因此我们的用户已经觉得社区的人文元素被人工智能工具淹没了,而不是得到它们的支持或增强。

5 个赞

我看到很多关于 AI 生成内容的评论。就我们的企业社区而言,我希望看到对 Discourse AI 的管理方面进行持续投资。也就是说,专注于帮助我们向领导团队展示社区价值的工具。由于我们(相对)干净的分类和标记,我们在季度业务审查中非常成功地使用了 Discourse AI 来展示诸如“这是这个子集用户在特定类别中讨论特定产品的用户情绪随时间的变化”之类的内容。

将其图形化并向我们的组织展示社区价值的可量化视觉效果,通过看到这样的先行指标获得了巨大的反响和持续的投资。更多这样的功能将是极好的,也将促使我们进行更深入的研究。

关于 AI 机器人,我们非常希望在中间人 AI 机器人体验方面看到更多的定制化。我们对如何将用户数据发送到 AI 服务有严格的要求,因此我们在 Discourse 和 AWS Bedrock 之间构建了自己的 AWS Lambda 服务。指定机器人工作的端点,以及对象模型的文档,将使我们能够充分实现社区中现有 AI 机器人的功能。目前,我们已经构建了自己的机器人体验,使用私信和 Webhook 来模拟盒子体验。

从我们的角度来看,您在 Discourse 的管理和审核方面为 AI 所做的任何努力都将是最好的投资。我们需要以可扩展的方式为企业构建和支持这个社区,我相信 Discourse 有很多利用 AI 实现这一目标的机会。

12 个赞

请联系 team@discourse。

你们的网站没有启用“相关主题”真是太可惜了,这完全由我们托管(并且已包含在所有套餐中),因此没有数据担忧、令牌担忧或定价担忧。

同样,我们自己托管了情感模型,并乐意与您一起探索它们。我对情感分析仍然有点怀疑,因为我试图了解它解决了哪些具体的示例问题。

我们也在探索在我们的硬件上运行开放模型,Llama 3 令人惊讶地强大。我们有可能在更长远的未来,特别是如果我们能让 7B 模型自信地完成它们,来为摘要等功能提供支持。

我理解你们对预算的担忧,Discourse AI 已经跟踪了每个人的令牌使用量,我们打算在插件中添加配额。

这在我们的路线图上,我们现在正在处理这个问题,即能够指向一个 URL 并指定它所说的“方言”。

9 个赞