这真的取决于情况,对吧?在上面的例子中,如果答案明显不正确——尤其是那些可能导致用户遇到更大问题的错误——我会对发帖人感到不满。如果人们花费时间验证和审查 AI 回复的适当性和正确性,我并不介意。如果他们认为生成的内容与他们分享信息的方式相似或更好,那就更好了。
另一方面,如果你只是把东西扔进一个大型语言模型(LLM),复制粘贴答案,然后期望我(作为你话题的读者)去弄清楚内容是否正确,那么我不会高兴。你不仅通过提供错误信息作为正确信息来浪费我的时间,还在削弱整个社区的信任度——或者至少是你自己未来回复的信任度。
展望未来,我预计在接下来的几年里,许多好意的人将不再在论坛上使用大型语言模型,而留下的人将是恶意行为者,或者根本不了解论坛的人。这纯粹是轶事,但我已经使用了大约 2 年的大型语言模型,我越来越倾向于自己生成内容。昨天我想写一篇我不太投入的博客文章。我决定尝试 GPT,但无论我怎么做,它听起来总是像 GPT,我讨厌那种感觉。所以我尝试了 Claude,尽管与它合作了一个小时,但内容听起来总不像一个活生生的人写的。所以总共大约 3 个小时后,我把所有东西都撕掉了,自己花了一个小时写完了。
那个故事的重点是说——至少对我来说——无论模型变得多好,自己生成的内容都越来越有价值。我真诚地希望在接下来的 2-3 年里,其他使用大型语言模型的人也能达到那个阶段。如果发生这种情况,论坛上的 AI 回复将只来自恶意行为者,或者来自好意但不知情的人。无论哪种情况,都可以让内容更容易处理:你可以封禁恶意行为者,教育好意者,并制定一项“禁止 AI 内容,除非你已明确消化你发布的内容,并且完全同意其内容代表你对该问题的看法和理解,并且该内容以与你自己生成内容相同或更易于理解的方式表达你的观点”之类的版主政策。