agemo
(agemo)
2023 年5 月 27 日 18:21
1
将 ChatGPT 毫无顾忌地、狂野地集成到任何事物中,这已经远远超出了令人深感担忧的范畴。
作为一个管理员,有一个重要的问题需要知道:在 Discourse 的核心安装中,是否存在任何部分或组件本质上是人工智能?
我猜答案是否定的,但我想确认一下。
自从出现了似乎将 AI 沙盒化在核心 Discourse 安装之外的插件以来。我也认为,从路线图的角度来看,了解是否有可能将 AI 集成到目前尚无 AI 的地方(如果这是真的)也很重要。
如果其中一个或多个问题的答案是肯定的,那么得到确认将是极好的。
1 个赞
Canapin
(Coin-coin le Canapin)
2023 年5 月 27 日 18:32
2
我明白你的担忧。
目前,所有与 AI 相关的功能都包含在可选插件 Discourse AI 中。
至于是否计划了任何核心 AI 功能,我将让更了解情况的人来回答(但 我猜它不在路线图上)。
5 个赞
mattdm
(Matthew Miller)
2023 年5 月 27 日 18:34
3
agemo:
本质上是人工智能
你得根据你具体担心的问题,更仔细地定义一下。
但我认为笼统的回答是:别担心——这是老派的、人类生成的代码,在执行传统的程序化逻辑。
6 个赞
agemo
(agemo)
2023 年5 月 27 日 20:19
4
是的,关于定义,这是一个很好的观点。我认为 OP 在广义上已经说得很清楚了,即 ChatGPT(及类似工具)出现之前的“前后”对比,以及 Discourse 的计划,至少包括:
如果还有其他人想沿着这些思路提供帮助来定义,但正如你所说,也许最好的定义就是任何不是***“老派人类生成的代码,执行传统过程逻辑”***的东西。
sam
(Sam Saffron)
2023 年5 月 28 日 00:24
5
您能提供一些(比如说 10 个,大型)开源项目的示例吗?这些项目有章程/公开文件禁止使用 GitHub Copilot?
4 个赞
agemo
(agemo)
2023 年5 月 28 日 07:25
6
Sam Saffron:
GitHub Copilot
是的,所以机器人会编程是我问这个问题的原因,这个问题问得很宽泛。现在我意识到了这一点,我想从拼写和语法检查器(例如 Grammarly)到像 Copilot 这样的编程辅助和助手。我想没有明确的答案,对吗?
GitHub Copilot is a code completion and programming AI-assistant developed by GitHub and OpenAI that assists users of Visual Studio Code, Visual Studio, Neovim, and JetBrains integrated development environments (IDEs) by autocompleting code. Currently available by subscription to individual developers and to businesses, the generative artificial intelligence software was first announced by GitHub on 29 June 2021. Users can choose the large language model used for generation.
On June 29, 2021, ...
1 个赞
sam
(Sam Saffron)
2023 年5 月 28 日 08:06
7
在极端情况下,IDE 的重构工具呢?不允许提取方法?继续乘风破浪,否则将回到打孔卡时代。
5 个赞
另外,Discourse(以及许多插件)使用广泛的单元测试和代码检查套件。
这极大地减少了代码问题(尝试在没有检查的情况下部署 RoR……),并且也能覆盖 AI 生成的代码或 Copilot 支持的代码。而且这还不算 Copilot 可能会发现你忽略的问题……
平台关于测试的核心纪律是无与伦比的,为生态系统树立了榜样。
这也有点无关紧要?我认为无监督的 AI 代码部署在短期内不会发生……你甚至无法运行测试(你试过让 ChatGPT 为 EmberJS 提供与 Discourse 兼容的解决方案吗?幻觉简直离谱 )。也许随着模型的进化,情况会有所改善。
我认为 Discourse 必须与时俱进,否则就会被淘汰,这意味着在适当的时候探索和采用新技术。
作为两个“AI”插件(都是手工编写的! )的作者,我认识到它们当然必须附带注意事项和免责声明,而且我认为在很长一段时间内这种情况都不会改变……
3 个赞
mattdm
(Matthew Miller)
2023 年5 月 28 日 15:58
9
Sam Saffron:
打孔卡
打孔卡?奢侈!在我那个年代,我们通过拨动前面板上的开关来引导操作系统。
2 个赞
agemo
(agemo)
2023 年5 月 28 日 22:38
10
那么,在“Discourse”的框架内,为了紧扣主题,因为你顺应着这股潮流,以及下一股潮流,当然这是一个广泛的问题,但是:
到目前为止的进展(如果我没有误解反馈的话。)
Discourse 核心中没有活动的 AI 组件。
Discourse 核心中没有非活动的 AI 组件或代码。
Discourse 的部分或全部代码可能是在开发人员可用的各种开发平台和 IDE 中间接或直接应用 AI 工具而产生的。
在 Discourse 核心中添加任何 AI 功能目前不在路线图上。
插件是支持 Discourse 的 AI 功能的入口。
sam
(Sam Saffron)
2023 年5 月 28 日 23:10
11
agemo:
AI
AI 不是一个技术术语……一个人可能会将启发式方法解释为 AI。我们“评分”帖子,对点赞、阅读和观看次数加权的方式可以被视为 AI。Akismet 也可以被称为“AI”。这样的例子不胜枚举。
就目前而言,业界“关注”的是大型语言模型方面的 AI 安全。
就目前而言,Discourse 核心和 Discourse AI 不会发布任何大型语言模型。Discourse AI 通过管理员可以输入的 API 集成现有的(Open AI 和 Anthropic)大型语言模型,未来我们可能会支持更多模型。
大型语言模型(LLM)是一种由具有大量参数的神经网络组成的语言模型,该模型使用深度学习技术在大量未标记文本上进行训练。这些模型可以识别、总结、翻译、预测和生成文本以及其他形式的数据。近年来,LLM 取得了显著的进步,在各种任务中表现出色,并正在改变人工智能、科学和社会。
大型语言模型的一些例子包括 OpenAI 的 GPT-3,它被训练来预测句子中的下一个词,非常类似于文本消息的自动完成功能 。
Google + GPT-4 提供的文本
我觉得很多讨论有点令人费解,我们是否担心会“癌变”Discourse 源代码?我们是否担心会对 OpenAI 产生紧密的无条件依赖?
4 个赞
Stephen
(Stephen)
2023 年5 月 29 日 01:34
12
我绝对更喜欢 Emily Bender 和 Timnit Gebru 创造的“随机鹦鹉”这个词——在指代这些 LLM 时,它确实更准确。
那里根本没有任何智能。
2 个赞
agemo
(agemo)
2023 年5 月 29 日 10:01
14
那么这到底是谁的问题呢?
你的意思是像目前那样通过插件吗?
我的观点是,如果你真的感到困惑,我敢打赌你并没有积极地意识到、了解或同情“后果”,因为在梳理这些问题时可能没有明显的价值,因为马已经跑了,谷仓门大开,所以大家放手吧!
你说癌症,更像是量子大规模杀伤性武器[填空],但有些人会认为这都是夸张。没关系。每个人都有权发表意见,但我的想法是整体的,而不是专门针对 Discourse,你如何处理开发取决于它的运作方式,所以为了澄清与 OP 相关的观点:
我问的主要原因是我作为 Discourse 的管理员,你有责任对待用户群,虽然这在实际市场 terms 中可能只是一小部分,但你的用户群或用户群的一部分仍然是重要的 ,并且可能实际上不希望使用参与任何形式的生成式 AI 的平台,当涉及到他们生成的内容时,原因有很多。就像他们可以使用广告拦截器一样,他们不想成为这个“东西”的一部分——当第一个用户提出这个问题时,是因为没有明确指示的 AI 政策,你还必须提供一些真实的答案。
因此,将 AI 工具作为插件而不是核心是一个好方法,但如果 AI 成为核心,例如在未来的更新中,可能会导致犹豫或完全拒绝该平台。
只要这条界限保持清晰和明确,那可能就是一种令人满意的前进方式,清晰的开发指导和保证在这里也很重要。
我也明白很难让所有人都完全同意,但现在问题的症结在于此,这就是当一个问题是出于真实原因而提出时会发生什么。如果原因是有根据的或不畏缩的,它将成为用户做出转化为行动的价值决策的基础。
如果仅仅是有一份简单的声明,即 Discourse 的核心中没有 ChatGPT 或类似的 AI,并附带一些关于 AI 作为工具在开发和创建过程中被使用的说明,这可能就是 Discourse 论坛上普通人最满意的答案了。
总的来说,AI 将如何影响网络以及整个世界的问题,在应用和后果方面已经发生并被看到,这个官方发布这些“玩具”的阶段,即向开发世界以及再次向世界提供一个潘多拉魔盒和 API 等,是一个加速过程,因为在此之前,这是一个非常受控的实验性学习和相对秘密的阶段,这个 AI 已经融入了网络的大部分内容多年,而许多普通人甚至没有意识到。
虽然我试图将它保持在我问题的框架内,如果你真的想进行元讨论,并讨论形而上学,那么我请便,但那个话题已经在这里了——How are we all feeling about ChatGPT and other LLMs and how they'll impact forums?
另一方面是广告,我猜谷歌多年来一直在其广告投放甚至分析服务中使用这种 AI,但至少现在用户可以部署一些拦截软件并使用 VPN,这些工具也使用 AI 吗?!
也许这归结为人们如何看待 AI,也许最简单的表达方式是有些人将其视为沙盒(工具),另一些人将其视为需要扑灭的现实矩阵结构中的火,无论哪种方式,它都在发生,而且无论如何它都会发生,但总会有后果,有时你所能做的就是选择成为造成这些后果的一部分或减轻它们,我认为“行业”正在两者兼顾。
2 个赞
agemo
(agemo)
2023 年5 月 31 日 21:48
16
Sam Saffron:
这是合理的见解。
现在,我是否会要求你说一些不符合事实的话,因为那是不合理的,正如你上面的回复所表明的那样,谁能在无限的时间线上说得准呢?说实话,这是为了尽可能地确定 Discourse 核心当前利用主动人工智能的状况。
我也不寻求任何承诺。
我的主要建议仍然是:
考虑将主动人工智能与核心分开,以便所有者/管理员有一个清晰的选择,没有混淆。我更倾向于这样做,而不是在管理员那里设置一个开关选项,你可以称我为偏执或老派,我想到的是一种隔离。
ChatGPT 等被整合到如此多的平台和工具中,这太疯狂了,从广义上讲,其影响是巨大的,那么为什么 Discourse 会错过这班车呢(它没有错过,插件就是 Discourse 开发时间线上的这一事件)。
我认为这个问题已经澄清了,它将是怎样的,并希望如果游戏规则发生可证明的改变,将提前或在合适的时间范围内进行非常清晰的沟通。
对于一些管理员/所有者和/或用户来说,拥有一个主动人工智能深入核心的论坛可能是一个过于危险的“天网”转折点,我认为人工智能应该被视为比元范式事件更伟大的东西。