Discourse 的核心有任何人工智能吗?

将 ChatGPT 毫无顾忌地、狂野地集成到任何事物中,这已经远远超出了令人深感担忧的范畴。

作为一个管理员,有一个重要的问题需要知道:在 Discourse 的核心安装中,是否存在任何部分或组件本质上是人工智能?

我猜答案是否定的,但我想确认一下。

自从出现了似乎将 AI 沙盒化在核心 Discourse 安装之外的插件以来。我也认为,从路线图的角度来看,了解是否有可能将 AI 集成到目前尚无 AI 的地方(如果这是真的)也很重要。

如果其中一个或多个问题的答案是肯定的,那么得到确认将是极好的。

1 个赞

我明白你的担忧。 :slight_smile:

目前,所有与 AI 相关的功能都包含在可选插件 Discourse AI 中。

至于是否计划了任何核心 AI 功能,我将让更了解情况的人来回答(但 :game_die: 我猜它不在路线图上)。

5 个赞

你得根据你具体担心的问题,更仔细地定义一下。

但我认为笼统的回答是:别担心——这是老派的、人类生成的代码,在执行传统的程序化逻辑。

6 个赞

是的,关于定义,这是一个很好的观点。我认为 OP 在广义上已经说得很清楚了,即 ChatGPT(及类似工具)出现之前的“前后”对比,以及 Discourse 的计划,至少包括:

  • 使用它来编写核心代码
  • 将其集成到核心中

如果还有其他人想沿着这些思路提供帮助来定义,但正如你所说,也许最好的定义就是任何不是***“老派人类生成的代码,执行传统过程逻辑”***的东西。

您能提供一些(比如说 10 个,大型)开源项目的示例吗?这些项目有章程/公开文件禁止使用 GitHub Copilot?

4 个赞

是的,所以机器人会编程是我问这个问题的原因,这个问题问得很宽泛。现在我意识到了这一点,我想从拼写和语法检查器(例如 Grammarly)到像 Copilot 这样的编程辅助和助手。我想没有明确的答案,对吗?

1 个赞

在极端情况下,IDE 的重构工具呢?不允许提取方法?继续乘风破浪,否则将回到打孔卡时代。

5 个赞

另外,Discourse(以及许多插件)使用广泛的单元测试和代码检查套件。

这极大地减少了代码问题(尝试在没有检查的情况下部署 RoR……),并且也能覆盖 AI 生成的代码或 Copilot 支持的代码。而且这还不算 Copilot 可能会发现你忽略的问题……

平台关于测试的核心纪律是无与伦比的,为生态系统树立了榜样。

这也有点无关紧要?我认为无监督的 AI 代码部署在短期内不会发生……你甚至无法运行测试(你试过让 ChatGPT 为 EmberJS 提供与 Discourse 兼容的解决方案吗?幻觉简直离谱 :chart_with_upwards_trend: :rofl:)。也许随着模型的进化,情况会有所改善。

我认为 Discourse 必须与时俱进,否则就会被淘汰,这意味着在适当的时候探索和采用新技术。

作为两个“AI”插件(都是手工编写的!:sweat_smile:)的作者,我认识到它们当然必须附带注意事项和免责声明,而且我认为在很长一段时间内这种情况都不会改变……

3 个赞

打孔卡?奢侈!在我那个年代,我们通过拨动前面板上的开关来引导操作系统。[1]


  1. 我其实没那么老。但我确实认识一些人,他们是以这种方式开始的,在 PDP-8 系统上… ↩︎

2 个赞

那么,在“Discourse”的框架内,为了紧扣主题,因为你顺应着这股潮流,以及下一股潮流,当然这是一个广泛的问题,但是:

到目前为止的进展(如果我没有误解反馈的话。)

  1. Discourse 核心中没有活动的 AI 组件。

  2. Discourse 核心中没有非活动的 AI 组件或代码。

  3. Discourse 的部分或全部代码可能是在开发人员可用的各种开发平台和 IDE 中间接或直接应用 AI 工具而产生的。

  4. 在 Discourse 核心中添加任何 AI 功能目前不在路线图上。

  5. 插件是支持 Discourse 的 AI 功能的入口。

AI 不是一个技术术语……一个人可能会将启发式方法解释为 AI。我们“评分”帖子,对点赞、阅读和观看次数加权的方式可以被视为 AI。Akismet 也可以被称为“AI”。这样的例子不胜枚举。

就目前而言,业界“关注”的是大型语言模型方面的 AI 安全。

就目前而言,Discourse 核心和 Discourse AI 不会发布任何大型语言模型。Discourse AI 通过管理员可以输入的 API 集成现有的(Open AI 和 Anthropic)大型语言模型,未来我们可能会支持更多模型。

大型语言模型(LLM)是一种由具有大量参数的神经网络组成的语言模型,该模型使用深度学习技术在大量未标记文本上进行训练。这些模型可以识别、总结、翻译、预测和生成文本以及其他形式的数据。近年来,LLM 取得了显著的进步,在各种任务中表现出色,并正在改变人工智能、科学和社会。[1][2]

大型语言模型的一些例子包括 OpenAI 的 GPT-3,它被训练来预测句子中的下一个词,非常类似于文本消息的自动完成功能 [3]

Google + GPT-4 提供的文本


我觉得很多讨论有点令人费解,我们是否担心会“癌变”Discourse 源代码?我们是否担心会对 OpenAI 产生紧密的无条件依赖?


  1. 维基百科 - 大型语言模型 ↩︎

  2. NVIDIA 博客 - 什么是大型语言模型以及为什么它们很重要 ↩︎

  3. 斯坦福 HAI - 大型语言模型将如何改变科学、社会和人工智能 ↩︎

4 个赞

我绝对更喜欢 Emily Bender 和 Timnit Gebru 创造的“随机鹦鹉”这个词——在指代这些 LLM 时,它确实更准确。

那里根本没有任何智能。

2 个赞

嘿,我们别不尊重鹦鹉。

1 个赞

那么这到底是谁的问题呢?

你的意思是像目前那样通过插件吗?

我的观点是,如果你真的感到困惑,我敢打赌你并没有积极地意识到、了解或同情“后果”,因为在梳理这些问题时可能没有明显的价值,因为马已经跑了,谷仓门大开,所以大家放手吧!

你说癌症,更像是量子大规模杀伤性武器[填空],但有些人会认为这都是夸张。没关系。每个人都有权发表意见,但我的想法是整体的,而不是专门针对 Discourse,你如何处理开发取决于它的运作方式,所以为了澄清与 OP 相关的观点:

我问的主要原因是我作为 Discourse 的管理员,你有责任对待用户群,虽然这在实际市场 terms 中可能只是一小部分,但你的用户群或用户群的一部分仍然是重要的,并且可能实际上不希望使用参与任何形式的生成式 AI 的平台,当涉及到他们生成的内容时,原因有很多。就像他们可以使用广告拦截器一样,他们不想成为这个“东西”的一部分——当第一个用户提出这个问题时,是因为没有明确指示的 AI 政策,你还必须提供一些真实的答案。

因此,将 AI 工具作为插件而不是核心是一个好方法,但如果 AI 成为核心,例如在未来的更新中,可能会导致犹豫或完全拒绝该平台。

只要这条界限保持清晰和明确,那可能就是一种令人满意的前进方式,清晰的开发指导和保证在这里也很重要。

我也明白很难让所有人都完全同意,但现在问题的症结在于此,这就是当一个问题是出于真实原因而提出时会发生什么。如果原因是有根据的或不畏缩的,它将成为用户做出转化为行动的价值决策的基础。

如果仅仅是有一份简单的声明,即 Discourse 的核心中没有 ChatGPT 或类似的 AI,并附带一些关于 AI 作为工具在开发和创建过程中被使用的说明,这可能就是 Discourse 论坛上普通人最满意的答案了。


总的来说,AI 将如何影响网络以及整个世界的问题,在应用和后果方面已经发生并被看到,这个官方发布这些“玩具”的阶段,即向开发世界以及再次向世界提供一个潘多拉魔盒和 API 等,是一个加速过程,因为在此之前,这是一个非常受控的实验性学习和相对秘密的阶段,这个 AI 已经融入了网络的大部分内容多年,而许多普通人甚至没有意识到。

虽然我试图将它保持在我问题的框架内,如果你真的想进行元讨论,并讨论形而上学,那么我请便,但那个话题已经在这里了——How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?

另一方面是广告,我猜谷歌多年来一直在其广告投放甚至分析服务中使用这种 AI,但至少现在用户可以部署一些拦截软件并使用 VPN,这些工具也使用 AI 吗?!:rofl:

也许这归结为人们如何看待 AI,也许最简单的表达方式是有些人将其视为沙盒(工具),另一些人将其视为需要扑灭的现实矩阵结构中的火,无论哪种方式,它都在发生,而且无论如何它都会发生,但总会有后果,有时你所能做的就是选择成为造成这些后果的一部分或减轻它们,我认为“行业”正在两者兼顾。

2 个赞

声明 :arrow_double_up:

  • 如果你要求我承诺“从现在……直到宇宙的尽头,LLM 永远不会进入核心产品”,那么答案是“否”。

  • 如果你问我“如果发生这种情况,我能否选择退出?”我的回答是……很可能……我们倾向于让管理员在站点设置和配置方面拥有极大的自由度。

10 个赞

这是合理的见解。

现在,我是否会要求你说一些不符合事实的话,因为那是不合理的,正如你上面的回复所表明的那样,谁能在无限的时间线上说得准呢?说实话,这是为了尽可能地确定 Discourse 核心当前利用主动人工智能的状况。

我也不寻求任何承诺。

我的主要建议仍然是:

考虑将主动人工智能与核心分开,以便所有者/管理员有一个清晰的选择,没有混淆。我更倾向于这样做,而不是在管理员那里设置一个开关选项,你可以称我为偏执或老派,我想到的是一种隔离。

ChatGPT 等被整合到如此多的平台和工具中,这太疯狂了,从广义上讲,其影响是巨大的,那么为什么 Discourse 会错过这班车呢(它没有错过,插件就是 Discourse 开发时间线上的这一事件)。

我认为这个问题已经澄清了,它将是怎样的,并希望如果游戏规则发生可证明的改变,将提前或在合适的时间范围内进行非常清晰的沟通。

对于一些管理员/所有者和/或用户来说,拥有一个主动人工智能深入核心的论坛可能是一个过于危险的“天网”转折点,我认为人工智能应该被视为比元范式事件更伟大的东西。