随着我关注有关 ChatGPT、GPT-4 和其他大型语言模型的最新消息,并且一直在试用 https://meta.discourse.org/t/discourse-chatbot-supporting-chatgpt/256652,我感到兴奋、恐惧,并且不确定这对在线交流意味着什么。
我想知道它将如何影响论坛和一般的文本交流。我也担心它最终将如何影响语音交流。
它会发展到大多数用户使用 ChatGPT 创建帖子并将其复制粘贴到论坛的程度吗?如果是这样,人们会尝试将论坛帖子复制粘贴到 ChatGPT 中以总结 AI 编写的帖子吗?我们会关心某人是“有机地”写下它还是借助了 AI 的帮助吗?如果人们可以从 ChatGPT 获得类似的答案,论坛和网站总体上是否还有那么大的好处?论坛将如何实现差异化并保持相对相关性?
我非常不确定会发生什么,只想听听其他人现在对此的感受和想法 
31 个赞
simon
2
鉴于 ChatGPT 最近自信地给出了关于我当地山地自行车道的一些错误答案,我将冒险说我不认为大型语言模型会对在线讨论产生巨大影响。它的答案会随着时间的推移而改进,但它永远不会像人类那样有动力去避免在互联网上犯错。此外,作为一个语言模型,它“无法执行骑山地自行车等物理动作”。因此,即使它能提供有关这些步道的准确信息,它也缺少一个拥有本地山地自行车论坛所能带来的“人情味”。
25 个赞
sam
(Sam Saffron)
3
那么……我对所有这些东西感觉如何?
显然,我很兴奋。我们有全新的玩具可以玩,这些玩具与我们过去拥有的任何玩具都不同。与大多数技术一样,它可以用于善或恶。
就我个人而言,我感觉自己身处人工智能的迷雾之中。我曾经对未来三到四年的发展方向有相当好的把握;然而,大型语言模型(LLM)和这项技术的未来演变却带来了麻烦。我不知道一年后情况会怎样。
当你狭隘地看待稳定扩散(stable diffusion)在过去几个月里发展的速度时,你会惊叹不已。当你审视从 GPT 3.5 到 4 的进步范围时,同样令人惊叹。
即使在人工智能的迷雾中,我确实有一些非常现实的担忧:
-
我百分之百清楚,支持论坛将被大型语言模型(LLM)吸收并用作有用聊天机器人的训练数据。这里的优点是,许多支持工作的繁重劳动可以消失,你可以立即获得答案。然而,缺点是新内容的创建会减少,这可能会很快导致死亡螺旋,除非得到缓解。
-
我确信,垃圾邮件发送者和其他不良行为者将利用这项技术,发起比我们迄今为止所见过的任何攻击都要复杂得多的攻击,如果我们不小心,可能会摧毁论坛。
-
这种辅助技术会侵蚀信任。当你阅读我写的文字时,你期望这些文字来自我。人们可以使用人工智能来做不仅仅是校对;它可以完全重塑我们的语言。想听起来像马尔科姆·格莱德威尔(Malcolm Gladwell)?没问题,你可以做到。负责任的论坛用户应该期望什么级别的标记?如果人们不再相信他们是在与人交谈,或者仅仅是在与模拟对话,他们将会放弃论坛。
用马尔科姆的话来说
在当今世界,辅助技术有能力以我们可能未曾预料到的方式侵蚀信任。作为书面文字的消费者,我们有一些期望——即我们阅读的文字是真实的,并且源自其声明的来源。然而,随着人工智能技术的出现,个人可以以超越简单校对的方式操纵书面文本。本质上,他们可以完全重塑一条信息,使其听起来像他们选择的任何人。所以,如果你曾梦想听起来像马尔科姆·格莱德威尔(Malcolm Gladwell)或任何其他知名人物,这项技术可以轻松实现。然而,这引发了关于负责任的论坛用户标记的问题。如果人们不再相信他们正在与其他人交谈,而不仅仅是计算机生成的模拟,他们很可能会完全放弃论坛。维持在线话语信任所需的标记级别是一个紧迫的问题,值得认真考虑。
- 我们过去见过搜索引擎优化(SEO)工厂论坛;我们将看到更复杂、更可怕的版本。
GPT 4 有类似的担忧
- 在论坛中使用大型语言模型(LLM)存在风险,可能导致用户产生懒惰文化,他们过度依赖人工智能技术来提供答案和见解。这可能导致论坛用户批判性思维和解决问题能力的下降。
- 在论坛中使用大型语言模型(LLM)引发了关于数据隐私和安全的伦理问题。用户可能不乐意让他们个人信息和互动被人工智能系统分析和处理,特别是如果他们不完全了解他们的数据是如何被使用的。
- 大型语言模型(LLM)在论坛中的集成可能会加剧现有的偏见和不平等,特别是如果人工智能技术是在一个有限的数据集上训练的,该数据集未能捕捉到论坛用户多样化的经验和观点。
- 大型语言模型(LLM)在论坛中的使用也可能导致话语的同质化,因为用户更有可能收到由人工智能系统生成的标准化回复,而不是来自其他人类用户的细致和多样化的反馈。这可能会扼杀论坛对话中的创造力和原创性。
- 大型语言模型(LLM)的集成可能导致人类版主和支持人员的失业,这可能对就业保障和为用户提供的支持质量产生负面影响。
尽管有这些恐惧以及更多,我仍然既兴奋又充满希望。这项技术将会有令人愉悦且极其有用的应用,我们希望在 Discourse 中探索这一点。
火已经燃起;我们在这里所能做的最好的事情就是非常谨慎地处理我们的方法和实验,并试图控制火势。我确实希望我们能控制住火势。但你知道……人工智能的迷雾……
34 个赞
angus
(Angus McLeod)
4
这触及了关于人工智能最深刻的问题之一,即我是在与一个普通人、一个“增强型”人还是一个人工智能交流,这是否重要,以及在哪些方面重要。我们称之为“对话者身份问题”。
在某些方面,人类一直在处理对话者身份问题。在哲学中,这有时被称为“他心问题”。笛卡尔的“恶魔”是其中一个更广为人知的陈述,这是他“我思故我在”的背景。我们如何看待或应该如何看待与人工智能互动的问题,本质上是同一个问题的延伸。
在论坛的背景下,这个问题以一种有趣的方式出现,因为在很多方面,我认为我们已经接受了对话者身份的高度不透明性。我们唯一能评判对话者的是他们的话语以及可能的自我呈现(即头像、用户名等)。无论好坏,在很多情况下,我们不会过多考虑对话者身份,或者至少愿意接受不透明性。
这种情况使我对它如何影响论坛得出了一些更审慎的结论(或者说问题)。例如,让我们考虑一下垃圾邮件。我们不喜欢垃圾邮件有很多原因,但让我们关注两个相关的方面:
- 它是丑陋的噪音,使论坛吸引力下降。
- 它具有商业、恶意或其他我们不希望助长的目的。
假设将大型语言模型(LLM)应用于“垃圾邮件”可以减少第一种情况,并对第二种情况采取更细致的方法。如果它不能做到这些,那么现有的垃圾邮件消除方法就足以应对它。在某些方面,称之为垃圾邮件是一种误称,它更像是“复杂的自动化营销”,或者……“Sam”(抱歉,忍不住了)。
然而,一旦我们进入“Sam”的领域,我们不可避免地会更接近同一个潜在的对话者身份问题。有些人已经利用他们在论坛上的存在以一种微妙、间接的方式进行营销。问题是我们是否在意执行此操作的参与者的身份。
我绝对赞同你对它对劳动力市场影响的担忧。然而,出于类似的原因,我不确定它是否会导致一个更愚蠢、更懒惰、更丑陋或更商业化的论坛生态系统。如果一个大型语言模型对论坛造成了这种影响,那么该论坛确实可能不会表现得很好,但其之前的用户会找到另一个不受大型语言模型影响,或者受到更复杂的大型语言模型影响的论坛。
论坛促进了知识、兴趣和人际联系的市场。如果一个大型语言模型在这些市场中取得成功,无疑会影响劳动力,但我并不确定它会减缓需求。事实上,成功恰恰相反。
24 个赞
人工智能很糟糕。
我没有看到任何好处。
它会降低我参与任何事情的胃口。
7 个赞
Tris20
(Tristan)
6
这或许是最重要的因素吗?每一条帖子都与一个独特的身份相关联。当我看到你或者(假定是)真实的Sam的帖子时,我会估计这些信息的真实可能性。我曾在播客上听过Sam的声音,去年还在专家视频通话中与你交谈过,所以我可以假设在这些帖子背后至少有一个真实的人存在。
但真实的人真的重要吗?如果有一个名为“Hal Mcdave”的账户,以一致且连贯的风格提供正确的信息,那么我也会开始信任并利用这些信息。所以这样不是很好吗?
当然,真正的问题从来不是人工智能;而是人工智能的愚蠢。
5 个赞
Jagster
(Jakke Lehtonen)
7
不会。随便逛逛论坛,看看里面的内容到底是什么。
人工智能将改变内容管理系统(CMS)的世界。它将对 WordPress 风格的世界产生巨大影响。在那里,像“XXXX年XXXX列表”、“如何做……”之类的复制粘贴式垃圾内容已经很多了。
这里的圈子是那些会使用并强烈感受到 ChatGPT 等工具使用的人群的一部分。但世界上绝大多数其他人……则不然。他们不再写作,不知道如何复制粘贴,也不使用 Discourse 等工具提供的那些花哨功能。
你们是粉红色的独角兽
稀有的存在。对你们来说,任何基于人工智能的东西都是新的游乐场或玩具,因为它是你们职业和爱好的一部分。
对 CDCK 来说,这是近期的事情,因为他们有重要的企业客户。这些客户经常使用 Discourse 来处理文档、帮助和支持。对他们来说,这种支持功能不产生收入,需要付费的人力。当有 AI 可以回答客户问题,他们不再需要支持团队时,他们将欣喜若狂。而开发者们也很高兴,因为众所周知,技术如果没有永无止境的调试和修复就无法正常运行。
所以,基于人工智能的解决方案不会侵蚀信任或其他什么,因为目前根本没有这样的信任。普通用户看不到,甚至不在乎答案和评论是否来自一堆代码。他们对新的表情包创作者和 TikTok 滤镜感到非常满意
拜托,他们已经在为约会应用付费了,而这些应用中的大多数“对象”都不是真人……
抱歉各位,但你们现在是在一个狭小的圈子里讨论 
8 个赞
Jagster
(Jakke Lehtonen)
8
但是,我希望看到一个真正有效的、基于人工智能的实时翻译器,而不是仅支持平台所有者的自动内容创建——因为我们现在拥有的根本无效。
这将帮助用户创建任何文本内容,当然也包括语音内容,从而使论坛、聊天等能够真正触及全球受众。这是我期待的一个工具。
或者类似的。Sam 在某个话题中曾设想过使用人工智能将话题归入正确的类别。为用户提供真正有用的、基于阅读/搜索历史的标签将是很有意义的。诸如此类的事情。
所以,我不认为人工智能是对创作和对话的真正威胁。我认为人工智能“仅仅”是减少繁琐工作的工具 
再说一遍。市面上已经存在大量低水平、低质量的内容,值得数万亿次的页面加载。如果人工智能能改变这一点,我不认为它是一种威胁。如果人工智能解决方案创造出同样糟糕的东西……嗯,它将像那些伪装成电子邮件表单的“自动支持聊天”一样走向失败。
7 个赞
Heliosurge
(Dan DeMontmorency)
9
非常好的问题。@merefield 最近发布了一个很棒的插件,它使用 Chatgpt 来创建主题摘要。
谷歌发布了他们的产品 Bard。
5 个赞
我也有同感,但我希望人类能继续做人类的事情,比如讨论(不仅仅是编写代码、复制粘贴数据)。
人工智能工具对于操作性和重复性任务可能非常有用,而且我认为机器人实际上无法真正参与人类的对话。
这根本上是不可能的,而且世界上 99.99% 的数据也不会改变这一点,因为自由、选择和生命。
生命就是变化,而人工智能无法靠自己改变,从根本上说(当然,除了天网之外)。
大多数人仍然会在谷歌上搜索,并且只点击第一个链接。
但世界上总会有 3% 的人选择浏览前 5/10 页,或者使用 Duckduckgo 来冲浪并像过去一样真正地浏览互联网。
人工智能在社交媒体方面非常糟糕,因为存在控制、审查和大规模操纵,但在论坛实例方面则不然。
总有一天,世界上极少数人会了解所有人的所有信息,但这是否包括我们改变的可能性?
我不这么认为(量子技术也是如此,它将一次性打破一切)。
5 个赞
MikeNolan
(Mike Nolan)
11
多年前,一本科技杂志连接了两个类似艾丽莎(Eliza)的程序,一个被设计成像医生一样说话,另一个则像一个偏执狂。结果很有趣,但它们不是像 GPT 这样复杂的引擎。
如果两个 GPT 实例开始就体育队、国际象棋或烘焙(我目前运行讨论论坛的领域)进行对话,阅读起来会很有趣吗?我有点怀疑。
6 个赞
simon
12
这似乎是对 OP 问题的诚实回答。我们确实生活在有趣的时代:slight_smile:
我希望论坛能帮助我们保持作为人类的意义感。
6 个赞
Canapin
(Coin-coin le Canapin)
13
“人工智能”一词可能会引起恐惧,而且人工智能在书籍、电影等中常常是混乱的根源。
我想知道,如果如今所有流行的技术(midjourney、chatGPT 等)都不使用“人工智能”这个词,而是使用我们文化上不太偏见的某个词,我们的感受是否会不同。
7 个赞
meglio
(Anton)
14
我想开发一款人工智能兽医聊天机器人,用于自动进行初步咨询和信息收集,以便为人类兽医构建详细的支持请求主题。
2 个赞
MikeNolan
(Mike Nolan)
15
我不会对兽医方面已经有类似产品上市感到惊讶,一些医疗实践已经开始使用它们来节省员工时间。
2 个赞
manuel
(Manuel Kostka)
16
我的感受,在 Midjourney 和 ChatGPT 的一点帮助下……
4 个赞
我猜我不能真正代表别人发言。但根据我的经验,我主要使用 Discourse 论坛(和 Discord 聊天)来与对某些正在成长中的产品有共同兴趣的人互动,在这些产品上,我不确定与 AI 聊天会有多大用处,例如:
- Auxy 应用论坛(音乐应用,现已关闭,但他们在 Discord 上)人们在那里分享彼此 WIP 曲目的反馈,并提供针对该应用的技巧。除了社区撰写的内容外,没有关于该应用的先前书面材料。
- Hopscotch 论坛(拖放式编码应用,我在那里工作,并在其开始时帮助播种)。同样,在社区撰写所有这些帖子之前,互联网上没有任何关于该应用的文字材料和详细指南,所以任何 AI 都会重复我们写过的东西。
- Sky: Children of the Light(游戏,社区在 Discord 上,但前提仍然相同)同样,我在 Beta 测试期间玩过它,当时还没有任何文字材料。我帮助撰写了维基百科上的音乐内容,并且在我参与社区之前就已经存在了。
在所有情况下,AI 也“没有自己使用过这些应用”。
所以,我不知道 AI 是否会有帮助,也许除了能很好地措辞社区生成的所有内容之外,因为在所有那些人通过讨论写出这些内容之前,这些主题上没有任何文字内容。
(我认为马克思在《资本论》中,在观察了英国的工厂工人之后,说过类似的话:人们不使用机器;机器使用人)
这并不是说这个 AI 不酷或没用,只是它在我参与这些社区时可能不会很有帮助。
10 个赞
我经营一个为企业家提供支持的论坛。
自11月以来,我创建了@Robolivier,一个友好的AI机器人,当用户提及他时,他会提供帮助。他还会在每个新主题下回复一次,希望能为用户提供满意的答案。我已在他的每条消息中添加了免责声明。
到目前为止,用户们大多数时候都觉得它很有趣且有用。
我计划根据我在论坛上的互动来训练他,让我们看看效果如何。
由于这是一个付费论坛,机器人对我来说不成问题。但我可以想象一个开放且免费的论坛可能会被垃圾信息淹没而变得毫无价值。
8 个赞
一个关键的区别是,当人工智能能够以任意数量的“身份”(标签)大规模生成高质量信息时,在关键/有利可图的时刻,就可以廉价地破坏围绕这些身份错误建立起来的信任。作为一个人类,我不想破坏我与他人建立的信任,这不仅是因为我的良心,也是因为这对我的声誉会造成损害。但一个与人工智能人为绑定的身份,对于资本主义的贪婪和政治操纵来说,要随意丢弃和滥用得多。
那么我的感受如何?对未来感到恐惧。这项技术很可能会在不久的将来(几年内)在社会上摧毁我们,如果我们找不到阻止它的方法,最终(几十年内)会在身体上毁灭我们。
4 个赞
MikeNolan
(Mike Nolan)
20
在我运营的论坛上,我们怀疑一个人多年来一直使用至少两个不同的名字和不同的身份发帖,一个比另一个更具对抗性。最近他犯了一个错误,用一个电子邮件地址签署了一个帖子,上面写着他另一个名字,然后又用第三个名字签署了另一个帖子。所以现在我们确定了!
有一本非常有趣的书,书中对著名作家进行了词语使用模式的统计分析。当书籍由多位作者撰写时,情况就变得有趣了,许多后来的汤姆·克兰西的书籍很大程度上是由其他作家撰写的。
这种统计分析就是如何确定 J.K. 罗琳也曾使用另一个名字写作,直到她证实了这一事实。它还被用来分析《联邦论》论文,并在 1962 年得出结论,正如许多人声称的那样,亚历山大·汉密尔顿写了其中的许多论文,包括一些其他人声称拥有作者身份的论文。(当时它们是匿名发表的,因为人们认为知道谁写了它们可能会削弱它们的政治效力。)
所以,如果我们能利用类似 chatGPT 的界面来分析我们参与者的写作风格,那么在我们的论坛上拥有这样的界面可能是有价值的。
7 个赞