第一个原因实际上是我不太清楚 Discourse AI 能做什么功能。我在 Meta 上看到过一些,但除此之外并不了解。
不过,这个页面已经为我解答了我的疑问 ![]()
如果我没看到这个页面,我可能就不会知道它能做什么了。
也许很多人也有同样的情况,但我不知道。
第一个原因实际上是我不太清楚 Discourse AI 能做什么功能。我在 Meta 上看到过一些,但除此之外并不了解。
不过,这个页面已经为我解答了我的疑问 ![]()
如果我没看到这个页面,我可能就不会知道它能做什么了。
也许很多人也有同样的情况,但我不知道。
仅仅提到“人工智能”就会让我们的社区中的大多数人反感,而其余的人则会两极分化。对我们来说,花钱让大公司以疯狂的能源消耗和全球监控水平将大数据提升到一个新的水平……违背了我们所有的价值观。
开源和自托管可以缓解这种情况,但话又说回来……我们将主要使用它的功能是更好的搜索和更好的建议。我们真的需要依赖“人工智能”来实现这一点吗?难道没有内容数据库和搜索与建议算法的改进,可以在相同的成本和能源消耗下在本地运行,而无需成为大型人工智能游戏中的活跃参与者?
如果人工智能仅用作内置的“校对”工具,例如,我可能会使用它。或者也许是翻译工具。
没有什么能阻止我使用 Discourse AI;事实上,我认为它现在是整个应用程序中最精彩的部分之一。
然而,作为一名教育工作者和人工智能研究员/工程师,我希望就此事提供我卑微的看法,因为我与这个所谓的“AI 泡沫”之外的人们密切合作。根据我的经验,人们不愿意使用/实施 AI 主要有三个原因:
实际上,所有这些困境都可以通过良好的提示工程结合相关知识教育来缓解,这绝不是 Discourse 的缺陷。不过,也许如果该公司推出一个专门针对 Discourse AI 插件的“AI 傻瓜速成班”,那么采用率和舒适度都会有所增长。AI 现在非常热门,所以很多人想使用它,即使他们不知道如何使用或为了什么而使用。
尽管如此,我的直觉告诉我,这一系列功能将在不久的将来推动 Discourse 的普及,因为它非常巧妙且与系统集成得如此之好。真是出色的工作!
我觉得这种说法很奇怪——我注意到这一点并非批评,而是因为它呼应了主题:“是什么阻止您尝试 Discourse AI?”
在这两种情况下,似乎都预设了人工智能显然是一件好事且有价值的事情,而有些人却视而不见。
但我有不同的看法:今天的人工智能是一个令人着迷的技术泡沫,对那些喜欢新事物本身的人非常有吸引力,并且可能在某些地方有价值——但本身并没有内在价值。
问题必须在于有什么好处——什么能让事情变得更好,在这种情况下,是让论坛成员或论坛管理员变得更好。
这让我想到
换句话说,就是当今产品在很大程度上不可靠。尽管它们有时会有帮助,例如总结或建议,但它们也常常出错。不可靠的总结?不可靠的情感分析?这只会带来更糟糕的体验!
我有点同情那些受雇推广人工智能或将其集成到产品中的人——这就是工作的性质,有时这些职位本身就是错误的。
但我真的不明白这种预设,认为这是一件能帮助所有论坛的好事。也许能帮助一些论坛。请告诉我们价值所在,并包括交付这种价值时不可靠的成本。
我的观点是,人工智能可以改进很多事情,根据我的经验,我的一些客户希望以某种方式改进他们的业务或运营,但又不确定如何精确地做到这一点。我完全不认为每个人都应该尝试使用人工智能,因为那只是落入了当前的炒作陷阱。
当然没有内在价值,我也没有暗示过。与大多数技术一样,它可能会被过度使用而效果不佳,或者干脆被滥用。
我还没有遇到过这种“令人难以置信的不可靠性”。也许这取决于你试图实现什么?非常笼统和复杂的任务仍然可能导致不可靠的结果,这是真的。同样,要想减轻这一点,就必须具备足够的提示工程和这项技术的应用知识——所以我的观点仍然成立。
感谢您的同情,但我不需要
。我是自雇人士,不需要试图“推广”人工智能给那些不需要它的人,而且您确实很武断地认为某人或他们的工作是错误的,仅仅是因为您对一个似乎对您来说很陌生的主题持几乎毫无根据的看法,从您如何撰写它来看。
我已经开发了能够自动检测和分割脑肿瘤并提供治疗风险分析的人工智能系统。我不认为受益于此类进步的患者会认为这样的角色是“错误的”。我们中的一些人研究人工智能是为了人类的福祉,而不仅仅是为了快速赚钱。
同样,我没有假设它会对所有论坛都有帮助,而且我反而认为,如果管理员在没有任何领域知识和最终目标的情况下就采用它,那可能是愚蠢的。
题外话:
我确实谦虚地鼓励您在未来对人工智能的回复中少一些歧视,多一些了解,或者至少不要断章取义地引用别人的回复,然后指责他们走错了路,并试图提供您的同情 ![]()
编辑:
忘了补充说,Discourse 添加更多自定义选项(例如,能够正确地进行提示工程来调整主题摘要器)将减轻许多风险。他们已经通过个性化设置和选择要使用的模型等方式朝着这个方向发展了。
抱歉,自从这个帖子开始以来,我一直在琢磨这件事,碰巧以你的贡献为起点。我的观察没有任何具体或个人的含义。
对我来说,正如 @Saif 感兴趣的那样,要在讨论中使用人工智能,我需要知道其价值主张。目前我的论坛运行良好,成本也得到了控制。要添加一些有金钱成本的东西,我需要知道它的好处是什么。并不是有什么东西阻止我尝试人工智能。
我禁用了 Akismet,并正在内部测试 Discourse AI Spam and Persona,我的 LLM 是 Google Gemini Flash 2.0
我的问题是,它是否会通过交互和人类反馈进行深度学习?因为只有专业版才允许缓存数据。
它不会学习任何东西,但你可以提供特定于你的论坛的自定义指令,如果你发现它犯了错误。
有没有办法将 persona 的提及限制在特定主题?
鉴于这个问题再次浮出水面:
我正在使用它,但我像鹰一样密切关注成本。我最大的担忧是失控的令牌使用量,至少在我能够运行足够长的时间以获得对平均令牌使用量应是多少的基本感觉之前。设置成本限制的功能很好,但我不会感到个人满意,直到我知道社区的正常使用量是多少,而这只需要时间。
用户信任问题非常严重。无论我准备什么信息,或者我作为网站管理员说什么,都存在一种根深蒂固的看法,即大型语言模型(LLM)使用用户生成的内容进行训练,并且任何由 Discourse 系统使用都意味着在“未经许可”的情况下“出售”用户数据。据我所知,这是一个普遍存在于许多评论者中的系统性问题,而且无法消除,因为人们“知道”AI 公司“真正”在做什么。在论坛上启用基于 AI 的分类,并声称你正在这样做,意味着你可能会面临大量的抱怨:“我不同意你将我的数据发送给某个 AI 技术公司,让他们靠我的话赚钱!”并非每个人都关心这类事情,但关心的人会非常生气,同时又完全不感兴趣进行讨论。我在这里没有好的答案。
我对将我的论坛的垃圾邮件检测状态置于十几个不同公司的模型在任何给定时间点的感觉如何感到有些不安。让我们坦诚地说:AI 垃圾邮件检测、AI 分类以及所有其他 AI 功能基本上都是我们在说“嘿,让我们把这个问题交给 AI 来解决”,然后试图通过提示工程来规范我们希望它做什么。它有效,但这个过程令人恼火地不确定。你基本上只能希望事情能像现在这样继续运行。我不喜欢这样。我一点也不喜欢,这让我感到焦虑。我希望我的工具能够确定地运行。LLM 是确定性的完全相反,而我们将论坛的某些功能押注在 OpenAI 等公司决定提供给我们的任何东西上。
话虽如此,我同时在使用 AI 反垃圾邮件和 AI 论坛分类。这很有帮助。但我会努力保持警惕,认识到这些解决方案必须持续监控其有效性。
插件相关的计算成本由谁承担?
令牌生成并非免费,在云端租用 GPU 最便宜的套餐(Google Cloud 的 NVIDIA T4)大约需要 250 美元/月。
这个插件每月收费 250 美元吗?
我认为大多数人都在使用一家大型人工智能服务提供商的付费套餐(文档中此处列出了支持的模型)。
不幸的是,我不知道有任何适合自托管用户的经济实惠的选择——据我所知,任何基于 GPU 的方案都在您提到的价格范围内,而且我怀疑,即使在更强大的机器上,基于 CPU 的推理也会太慢。
自托管 Discourse AI 可让您通过 API 连接到不同的商业模型。我发现使用 Gemini Flash 2.0 进行 AI 分类、AI 反垃圾邮件以及一些 AI 夜间摘要的费用约为每月 0.03 美元。
我认为我们对“自托管人工智能”的理解有所不同。对我来说,这意味着连接到在本地运行的模型/服务。您所描述的是可能的,但实际上本地部分只是一个代理,数据将离开您的服务器/传输到 API 提供商。这对许多人来说是可以的,但对我/我们的社区来说,这不行。
抱歉,我指的是自托管的 Discourse。我的错。