鉴于这个问题再次浮出水面:
-
我正在使用它,但我像鹰一样密切关注成本。我最大的担忧是失控的令牌使用量,至少在我能够运行足够长的时间以获得对平均令牌使用量应是多少的基本感觉之前。设置成本限制的功能很好,但我不会感到个人满意,直到我知道社区的正常使用量是多少,而这只需要时间。
-
用户信任问题非常严重。无论我准备什么信息,或者我作为网站管理员说什么,都存在一种根深蒂固的看法,即大型语言模型(LLM)使用用户生成的内容进行训练,并且任何由 Discourse 系统使用都意味着在“未经许可”的情况下“出售”用户数据。据我所知,这是一个普遍存在于许多评论者中的系统性问题,而且无法消除,因为人们“知道”AI 公司“真正”在做什么。在论坛上启用基于 AI 的分类,并声称你正在这样做,意味着你可能会面临大量的抱怨:“我不同意你将我的数据发送给某个 AI 技术公司,让他们靠我的话赚钱!”并非每个人都关心这类事情,但关心的人会非常生气,同时又完全不感兴趣进行讨论。我在这里没有好的答案。
-
我对将我的论坛的垃圾邮件检测状态置于十几个不同公司的模型在任何给定时间点的感觉如何感到有些不安。让我们坦诚地说:AI 垃圾邮件检测、AI 分类以及所有其他 AI 功能基本上都是我们在说“嘿,让我们把这个问题交给 AI 来解决”,然后试图通过提示工程来规范我们希望它做什么。它有效,但这个过程令人恼火地不确定。你基本上只能希望事情能像现在这样继续运行。我不喜欢这样。我一点也不喜欢,这让我感到焦虑。我希望我的工具能够确定地运行。LLM 是确定性的完全相反,而我们将论坛的某些功能押注在 OpenAI 等公司决定提供给我们的任何东西上。
话虽如此,我同时在使用 AI 反垃圾邮件和 AI 论坛分类。这很有帮助。但我会努力保持警惕,认识到这些解决方案必须持续监控其有效性。