我们都对ChatGPT和其他LLMs以及它们对论坛的影响有何看法?

关于那些通过复制粘贴ChatGPT内容来回答问题的人,这里有一个有趣的例子,说明了一些反对意见:

我也在经常浏览的论坛(性质非常技术性)上看到了这种情况。一个特定的新用户每天发布8到9个答案,全部来自ChatGPT。

其中有很多有价值的信息,但也有不准确之处和一些彻头彻尾的误导性内容(想象一个复杂的7步列表,我看到第6步就知道它永远行不通……但很多人不会)。

这位用户似乎在试图建立声誉……我们正在考虑要求人们始终明确标记ChatGPT内容的原样。我们只能希望他们会尊重这一要求,但实际上无法强制执行。

这让我感到不安,我认为这不会把我们引向一个好地方。我担心无意义的对话将接管互联网。我们可能被迫在现实世界中过真实的生活,我不确定我们能否应对…… :slight_smile:

14 个赞

我的大儿子喜欢给我发文章和帖子,展示 ChatGPT 的各种不当之处。我一直告诉他,ChatGPT 技术目前在许多领域,比如数学,可能只处于小学二三年级的水平。引用我一位教授多年前的话来说,它不知道自己不知道什么。

我还没让它给我写过烤蛋糕的食谱,真不敢想它会错成什么样。(我在网上见过太多人类发布的、完全不可行的食谱了。)

我认为当 Facebook 和 Twitter 被发明出来时,无意义的对话可能已经占据了互联网。我们这些足够年长、还记得 USENET 的人,当时称它为“懂阅读的人玩电子游戏”可能还算准确,但现在这条界线可能要划得更早了。

3 个赞

我们目前确实有这种感觉——运行一个免费且开放的 Discourse 论坛,并且看到大量的 ChatGPT 式垃圾信息机器人绕过了现有的垃圾信息防护。

Akismet 目前跟不上它们的步伐,因为我从未见过如此多的垃圾信息账户能够通过。它们倾向于发布看起来无害的评论,回答一个问题(或重新表述它,然后回答),并给出一个相当冗长的、看似有帮助的答案,但缺少原始问题的一些上下文或细微差别。

我假设 Discourse 论坛被当作试验场,原因与十年前的 WordPress 网站类似:它是一种开源技术,得到了相当广泛的应用,因此能够在一个论坛上进行注册流程的机器人很可能能够访问许多其他论坛。

我们目前没有看到传统的垃圾信息机器人行为(创建账户,发布足够无害的内容以绕过反垃圾信息措施,然后在 48 小时内编辑它以添加链接)——所以我不知道这里的最终目的是什么。有可能我们删除这些帖子的速度太快了,它们之后会被编辑成反向链接农场。

13 个赞

8 篇帖子已拆分为新主题:LLM 对客户支持的影响

ChatGPT 就你的问题给你什么建议 :rofl:?还有其他的呢?它们之间是否一致 :rofl: :rofl:

4 个赞

我认为强制性的双重身份验证(2FA)应该能过滤掉大部分机器人。有什么想法吗?

否则,我可能会让用户在创建账户后填写一个 typeform,并通过表单提交时的 webhook 将他们添加到“已验证”组,并使未经验证的用户只能只读访问论坛。

话虽如此,但现在机器人可以浏览网页并理解按钮意图,我觉得这只是一个权宜之计。

2 个赞

大多数论坛都是开放的(访问者无需注册),并且可以通过谷歌等搜索引擎找到。双因素认证(2FA)无法阻止这一点。

1 个赞

创建账户所需的双重身份验证将对 99.9% 的机器人有效……

5 个赞

这是一个有趣的机器人。

2 个赞

我想知道一个受过唇语训练的人是否能在关闭声音的情况下理解它?

3 个赞

使用 ChatGPT 技术需要谨慎的另一个原因。

一位加州法学教授被列入了 ChatGPT 生成的指控性骚扰的法学学者名单。ChatGPT 引用了《华盛顿邮报》的一篇报道作为其来源。

问题是,根本不存在这样的《华盛顿邮报》报道,而且从未有人对这位法学教授提出过性骚扰指控。

以下是该报道在《华盛顿邮报》网站上的链接,巧合的是:
https://www.washingtonpost.com/technology/2023/04/05/chatgpt-lies/

如果该链接不起作用,请尝试此链接:https://wapo.st/3KhD2R2

9 个赞

商务部已宣布计划确保人工智能拥有适当的“护栏”,大家可以放心了。

《华尔街日报》报道:

美国商务部下属机构国家电信和信息管理局(负责发布征求意见稿)负责人艾伦·戴维森(Alan Davidson)表示:“看到这些工具在其相对初级阶段就能做到什么,真是令人惊叹。我们知道需要建立一些护栏,以确保它们被负责任地使用。”

:sarcasm off:

3 个赞

是的……前提是文本仍然是由人类参与者撰写的
而且,这种情况可能只会越来越糟。所以问题就来了。

人工智能可能会导致你所描述的一切变得越来越糟,并且越来越难以检测。
书籍作者是一回事。而在在线讨论中,不知道你实际上在与谁打交道是另一回事。如果文本不是由个人真正撰写的,而是使用人工智能生成的,那么你本应从书面文本中获得的所有线索都会失真。

3 个赞

这个问题完全取决于细分领域。我的圈子里的人都非常关注犬类的营养和喂食。我能立刻看出一段文字是否由人工智能生成——因为人工智能认为“百万只苍蝇不会错”。

当我们谈论徒步、划船等话题时,也会出现同样的情况。

所以,这取决于哪些群体写了大部分网络文本。这就是为什么在我朋友/社区里,除了程序员之外,其他人都认为人工智能只是又一个炒作——至少目前是这样 :wink:

2 个赞

刚看到这个,觉得它对于将 AI 答案放入每个输入框的容易程度(实际上已经很方便了)来说很有参考意义:

3 个赞

轻微不适宜工作内容…

5 个赞

我遇到了第一个用户可能使用 ChatGPT 进行争辩式回复的案例。这个人已经是边缘性的网络巨魔了,我对这一发展感到不满。

另一位用户使用了一个新的 Chrome 扩展程序进行了识别:

还不确定这个扩展程序有多好——它似乎在样本不足时默认为“人类”,但可能会错过某些类型/风格的 AI 生成文本(例如 ChatGPT 生成的打油诗)。

我目前的审核计划,如果你能称之为计划的话,就是让其他用户识别并举报这些滥用行为,让社会压力起到威慑作用。目前不知道还能做什么。

2 个赞

如果这种情况发生在我的论坛上,我会明确表示,发布机器生成的文本而不加注释是一种可标记的违规行为。本质上,这是欺骗性的,所以它违反了指导方针。

3 个赞

我原则上同意,但识别机器生成文本的标准是一个不断变化的目标。好消息是,Chrome 扩展程序到目前为止还没有产生任何误报,尽管测试范围非常有限。坏消息是,版主需要付出额外的努力来做出判断,并且需要跟上最新的检测工具,因为人工智能生成文本会越来越好。人工智能文本最终将达到一个难以检测的程度。

3 个赞

确实如此,但我将其视为一个审核问题。我们的人工版主已经留意那些具有对抗性、粗鲁、侮辱性、重复性或误导性的帖子。这是对该问题的延伸:并且,根据本地文化规范,真人发布机器文本而不发出警告通知是不被接受的,任何看起来(或闻起来)像机器文本的东西,尤其是来自相对较新用户的,都会自动引起怀疑。

我认为人类大脑,尤其是版主的大脑,将能够相当熟练地识别机器文本。当机器文本与推动对话的有用帖子无法区分时,我们就没有问题了。(那些发布低努力和低价值帖子的人可能会受到惩罚。)

3 个赞