在另一个相关问题中,《华尔街日报》的一位专栏作家对 Hardee’s 的聊天机器人得来速点餐系统进行了 30 项测试,结果相当不错,只有 3 项需要转交人工处理。
可以提供公告链接吗?
这样我们这些消息不灵通的人也能了解一些背景信息 ![]()
好的,谢谢您 @RGJ ![]()
看起来这具体是关于这项承诺的:
所以我想这真的取决于公司来促成。但正如 @merefield 上面提到的,给文本添加水印几乎是不可能的。
您期望 Discourse 在这种情况下做什么 @MikeNolan?如果用户只是复制粘贴 AI 生成的文本,Discourse 无法得知(除非运行垃圾信息和 AI 检测器),所以我不太明白这项协议目前会带来什么改变。
用户粘贴的 AI 生成内容可能无法被 Discourse 做太多处理,因为它可能与人类生成的内容无法区分(除了可能写得更好之外),但如果你使用官方的 Discourse AI 插件,也许 Discourse 可以对水印或以其他方式标记其生成的内容做些什么?
原来如此,我明白了 ![]()
也许有点语义化,但数字水印的两个特性是它们对普通观众来说是隐藏的,并且难以移除。
我认为,无论是文本还是图像,公开承认 AI 生成的内容都很重要。
隐藏的数字签名对于图像版权执行等用途更有用。
我活跃在 Ugly Hedghog 摄影论坛,在那里,AI 生成或修改的图像是否符合照片的定义是一个热门话题。(一些 AI 生成的图像曾赢得摄影比赛。)
我们现在讨论的问题是,恶意人士将利用人工智能生成内容,然后移除其来源标识,并试图将其伪装成人类生成的内容。这就要求有一个难以移除的来源“标签”。
意图不一定带有恶意,但不够诚实。
祝你好运,找到一种方法来“标记”人工智能生成的文本,这种方法无法通过可能像复制粘贴一样基本的方法来克服。
零宽字符可以用于此目的吗?
不,可以通过传递内容通过一个只保留普通字母字符的过滤器来轻松删除它们。文本水印非常非常难。你基本上无法在字符表示级别上做到这一点。
Scott Aaronson 的这篇博文 解释了它是如何工作的。向下滚动到“我在 OpenAI 的项目”部分。其中概述的方法是复制粘贴证明 @MikeNolan
谢谢,这很有趣:
我迄今为止的主要项目是用于对像 GPT 这样的文本模型输出进行统计水印的工具。基本上,每当 GPT 生成一些长文本时,我们都希望在其词语选择中有一个不易察觉的秘密信号,你可以用它来证明,是的,这是来自 GPT。我们希望让人们更难将 GPT 的输出冒充为人类所写。这显然有助于防止学术抄袭,但也可以用于例如大规模生成宣传……或者模仿某人的写作风格以陷害他们。这些都是人们可能想让它变得更困难的事情,对吧?
…
因此,为了进行水印,不是随机选择下一个 token,而是使用加密的伪随机函数来伪随机地选择它,其密钥仅由 OpenAI 知晓。假设最终用户无法区分伪随机数和真正随机数,这不会对最终用户造成任何可检测的差异。
我担心识别 AI 生成文本的一个问题是,它可能会意外地将写得好的人类生成文本作为目标。
在许多论坛上,写得好的、人类生成的文本似乎是个例外。 :sigh:
我只是回到动机。
如果你识别出恶意意图,就禁止或暂停。
如果它是写得好、意图良好且事实确凿的文本,就保留它?
如果用户的母语不是英语,并且他们使用了 ChatGPT 来改进他们的语法怎么办?
好的,我担心这可能会针对我的帖子 ![]()
我认为是的。我不认为人们使用人工智能来帮助撰写帖子有什么问题,前提是有一个真正的人类在决定人工智能生成的文本是否值得发布。
有很多工具可以帮助改进语法,我不知道 ChatGPT 是否比其他工具更好。
不过,改进语法与生成“原创”内容是有些不同的问题。AI 引擎开始受到内容所有者的关注,他们希望因使用其材料来训练 AI 引擎而获得报酬。


