看起来效果很好:
好几家公司都要完蛋了! ![]()
恕我直言,这简直是荒谬绝伦。
我们是否应该赔偿全人类,因为他们进化出了我们拥有的优美语言?
不过,我离题了。
我不同意你的看法,但我怀疑许多诉讼在被告看来都是荒谬绝伦的,但无论如何代价高昂。
如果一个经过人工审核的问题和答案(例如,一个已解决的Discourse主题)具有作为训练数据的经济价值,那么要求为此付费似乎并不过分。数据有需求,所以这可能是一种双赢的局面。
至少有两个写作比赛,其目的是模仿某位指定作者的风格写作。(布尔沃-利顿和海明威)
但我可以想象,要求人工智能模仿某位知名作者的风格写小说可能会引起该作者或其继承人的不满,因为可识别的风格可能被视为“知识产权”,或者至少有律师愿意在法庭上如此主张。
有用户对在论坛中使用 Discourse Chatbot 感到兴奋并产生了很多讨论吗?我每天都在使用 ChatGPT、Perplexity、Claude、Bard 等各种聊天机器人。但我曾认为论坛是远离这些东西的安全空间。我昨天写了一篇关于这个的文章 我认为人工智能饱和将复兴这个旧网络平台(网络论坛)
我真的很想知道,当用户访问由 Discourse 和其他平台驱动的论坛时,他们是否渴望聊天机器人和人工智能。如果是这样,我将不得不彻底改变我对论坛的看法,甚至考虑像这样的插件。这似乎是一个大项目,甚至可能非常耗时。一如既往,我非常感谢你们所做的一切。我想了解产生这个需求的市场,以便我能跟上潮流。
我正在考虑在技术支持论坛中使用它,以在员工忙碌或下班时间快速回答简单/重复性问题。我认为它在这方面会很棒。
是的,我最近打开了一个与 Hostinger 支持的聊天窗口。它是 AI Chatbot。而且这个聊天机器人非常有效,它告诉我一个我从未知道过的退款选项,甚至还给我发送了退款政策的链接!哈哈
它理解我的问题,并且没有问我是否已经尝试过 10 个基本操作。所以是的,我可以看到在支持案例中,它很有用。
希望这些信息能保存到论坛上,以便其他人可以看到,甚至可以加入讨论,而不是取代它。
对于一位有经验、了解他们所提供支持的软件知识的客服人员来说,情况也会是这样吗?
当然不是。没有适合每个人的完美选项。
GPT 可以进化。但现在这些都是低级选项,即使是简单的数学运算。3.5 甚至无法可靠地完成基础运算,对吧?当需要事实正确或接近正确时,幻觉是一个非常大的问题。
英语以外的语言很难。对于少数几种主流语言,它会运行良好,但对我来说,以及对于所有说少数语言的人来说,特别是如果其结构不使用介词,翻译将永远无法达到顶尖水平。
GPT 会先翻译成英语,然后更改提示。之后,答案将从英语翻译回来,GPT 会进行其他更改和幻觉处理。最终产品将与所要求的相去甚远,甚至与 GPT 最初提供的相去甚远。
而且,由于训练基于“数百万只苍蝇不会错”的理念,数量压倒质量,错误和虚假信息量巨大。即使在这种情况下,由于幻觉,也会有更多的虚构内容。
当然,事情并非如此绝对。我使用的是入门级解决方案。但如果有钱,可以进行自己的训练,那么游乐场将发生巨大变化。
尽管如此,我还是要声明:GPT 在分析或做变化不多的事情时效果最好。或者,如果它能创造出完全虚构的“新”东西。但 GPT 应该提供事实和可靠信息的广阔中间地带……则不然。
我每天都在大量使用 OpenAI 的 GPT3.5 作为……“带类固醇的搜索”。我不太满意。我必须检查、复查和重写很多内容,但我不能否认 GPT 在创建批量文本时仍然为我节省了时间。
最近有一项关于这个问题的有趣研究发表:
https://www.nature.com/articles/s41598-024-61221-0
生成式人工智能对在线知识社区的影响
生成式人工智能技术,特别是像ChatGPT这样的大型语言模型(LLMs),正在革新各个领域的知识获取和内容生产。这些技术对在线知识社区的参与和内容生产具有重大影响。我们通过分析2021年10月至2023年3月期间Stack Overflow和Reddit开发者社区的数据,提供了初步证据,记录了ChatGPT对前者用户活动的影响。我们观察到Stack Overflow的网站访问量和问题数量均显著下降,尤其是在ChatGPT表现突出的主题领域。相比之下,Reddit社区的活动没有显示出下降的迹象,这表明社交结构在缓冲LLMs对社区的破坏性影响方面的重要性。最后,Stack Overflow参与度的下降集中在新用户中,这表明初级、社会联系较少льзова更有可能退出。
这几乎描述了我自己的行为。我仍然会在 Meta 上提问和回答问题——我在这里有社交联系。但要学习新的编程语言和框架,我依赖于 ChatGPT 和在线文档的结合。
也许大型语言模型(LLM)的主要优势在于它们的可用性。我宁愿从人类专家那里获得指导,但没有人有足够的时间或耐心随时回答我所有的问题。
通过 LLM 学习的一个主要缺点是,与在公共论坛上学习相比,生成的信息是私有的。通过 LLM 学习某事很少是问一个问题就能得到正确答案。更像是问它一个问题,尝试应用答案,阅读一些文档来弄清楚为什么答案不起作用,带着后续问题回到 LLM……最终会产生一些知识。
我不认为有人想阅读别人的聊天记录,但也许技术论坛可以推广人们发布从 LLM 中获得的知识的想法。
通过 LLM 学习的另一个明显缺点是失去了社交联系、将人类关注作为学习动机、工作机会等。从我的角度来看,这很重要。
可用性是我们构建支持机器人的主要原因。
我对这项技术感到既兴奋又对网络的未来略感担忧。
包括谷歌(和必应)在内的公司现在正在利用抓取您网站时收集的数据,在其搜索页面顶部提供由人工智能驱动的问答。
这不仅会将搜索结果推到页面下方并淡化来源的重要性,而且还会带来另一种令人担忧的动态:这将鼓励搜索提供商寻求与一些精选的大型数据源进行更深入的整合。
例如,据报道,谷歌已与Reddit达成协议,以获取其API的访问权限。
在我看来,其结果是它将进一步推广大型平台上的内容,并损害小型网站。
目前,关于谷歌的“AI概览”功能的搜索结果质量存在相当大的争议,其中一些令人捧腹或不那么令人捧腹的例子,可以说让该公司非常尴尬。但我相信这项技术会不断进步。
也许小型论坛可以通过专业化来更好地优化其本地AI的使用。谷歌在提供非常通用的服务方面正面临困难。
时间会证明一切,但争夺关注的战斗仍在激烈进行中。
这是我的想法之一。我曾考虑过微调一个类似 BERT 的模型来自动将帖子分类到不同的类别,或者自动添加标签。检测“有毒”帖子也将是另一种用途。
对于像 Discourse 这样的平台,人工智能能做的事情可能比我一生所能做的还要多。当然,一旦人工智能帮助实现了它,也许它可以在一生中完成……
老实说,我认为这个问题是所有与人工智能相关的主题的基础,而我这种天真的人认为,这(只能)通过一个社区拥有的模型来解决。
一个由我们自愿提供并监管的数据训练而成的模型,只需遵守提供的数据许可即可。一个经过道德训练的模型,将在我们所有的机器上进行计算。
数据点对点计算有着悠久的传统,因为某些科学领域已经这样做了几十年。
在我看来,如果我们想使用人工智能而不牺牲我们的原则,从长远来看,没有办法绕过这一点,或者至少没有一个可比的解决方案。
基于 LLM 的审核将非常棒,您可以要求它根据不同的任意指标(与社区相关)来评估每个帖子,并执行操作、过滤或提供帮助。
我在这里看到了其中的一些开端,但不太清楚其功能集:Discourse AI Features | Discourse - Civilized Discussion
我认为您正在寻找的功能集是 Discourse AI - AI triage
我们确实有一些计划来改进登陆页面,以便所有 AI 功能的上下文更加清晰。
就像在Facebook、Instagram、TikTok等平台上看到的那样😜
It really depends on what the goal is - take down offensive content, guide the user etc.
One goal that interests me in particular is using an LLM to analyse questions/problems when they are submitted. The goal is not to answer the question, but rather to help the user express their problem in a more constructive way. Too often we see the first reply is “can you please post your error logs” or “what exactly are you trying to do?”. An LLM could catch topics which fall into this category and nudge the user to provide those details, speeding up the whole support process and creating a higher quality topic for future readers.
Early work has been promising, showing about 93-95% accurarcy from a dataset of about 60 topics. The innacuracies aren’t even that bad - half of the answers where our assessment disagrees with that of the LLM are very dubious to begin with.
My main finding, as obvious as it may be, is: the more you reduce the scope of your query to the LLM, the more accurate that answer will be.