各位,
我看到一些关于在 Discourse 中集成各种级别机器人的有趣话题,但我没有看到任何关于集成 GPT-3、BlenderBot 等大型记忆模型 AI 机器人的话题。有人考虑过这个吗?或者甚至在实现这个想法方面取得了任何进展?
我正在考虑设置另一个 Discourse 实例,其中一个大型 AI 机器人作为系统中的普通用户,像其他人类用户一样参与——但也许只在他被特别提及或他的句柄在帖子中被提及时才回复。
在再次开始设置新实例之前,我想这次先征求一些反馈……
感谢任何指点……
各位,
我看到一些关于在 Discourse 中集成各种级别机器人的有趣话题,但我没有看到任何关于集成 GPT-3、BlenderBot 等大型记忆模型 AI 机器人的话题。有人考虑过这个吗?或者甚至在实现这个想法方面取得了任何进展?
我正在考虑设置另一个 Discourse 实例,其中一个大型 AI 机器人作为系统中的普通用户,像其他人类用户一样参与——但也许只在他被特别提及或他的句柄在帖子中被提及时才回复。
在再次开始设置新实例之前,我想这次先征求一些反馈……
感谢任何指点……
是的,那将是一个有趣的实验。
我也一直在考虑将类似 DialogFlow 的东西连接到 Chat 插件的可能性。
我现在没有专门的时间来做这件事,但我很乐意与一些志同道合的人一起思考和进行一些实验。
太棒了!我目前的想法是,随着时间的推移,能够将许多不同的 AI 应用添加到中央实体中——有点像哺乳动物/人类大脑通过复制和专业化进化一样。
也许我应该先创建 Discourse 实例来开始?
也许我们先从技术设计开始。我们连接到哪种 API?我们需要一个连接两个系统的中间件,还是一个调用 GPT API 的插件就足够了?
@RGJ,
我之前确实看到了 Hubot 的帖子,并且在着手发明轮子之前,我曾考虑过将其作为一种学习练习来尝试——你认为这会有用吗?
是的,绝对可以。我将离开大约一周,之后我将花一些时间来尝试。我不太喜欢 Node,我更愿意用 Python、Ruby 或 PHP 来做这件事。但我们先来积累一些经验。
我的首选是Ruby!
太好了!——我也会出去旅行一段时间,但在回来之前我会仔细阅读一下。
谢谢!
在过去的几个月里,我大部分时间都离开了互联网,回来后看到大家对GPT-3有很多兴奋的讨论。这让我思考如何将其应用于Discourse。
我一直在尝试用OpenAI创建一个“员工助手”机器人。目前我正在使用text-davinci-003模型进行测试。我认为基本设计将是一个Discourse帖子事件钩子,指向一个安装了Python OpenAI库的服务器。
我正在处理的第一个任务是让机器人根据纯文本描述返回Data Explorer查询。我还没有尝试过微调模型,但如果请求的提示中提供了Discourse数据库结构的有关信息,它会返回出人意料的好结果。
事实证明,使用OpenAI处理这类事情可能会太昂贵,或者结果不够准确,无法在生产环境中使用。
我只是在做这个来娱乐。另一个显而易见的事情是,针对Discourse论坛上现有的回复来训练一个客户支持机器人。这似乎比仅仅设置一个供员工使用的机器人更困难(无论是在成本还是准确性方面)。
我有一个不同的用例(机器人必须记住与我们非营利组织成员的先前对话)。在过去的一周里,我在各种版本的 BlenderBot 上取得了一些进展——我将在专门为该项目设置的 Discourse 上发布更多内容:
注册已禁用,我们需要邀请。
啊!- 对不起!- 你是第三个人。 . . 私信我一个电子邮件地址?
其实,现在回想起来,我们完全可以有不止一个机器人运行在那里。
我也正想问同样的问题,一个 ChatGPT 机器人,让我们可以在聊天或帖子中提问,那将非常有用。这里有一个在虚拟机中运行它的教程:
非常巧妙、令人惊叹且有趣! - 但它无法满足我的需求(会话间内存):
ChatGPT 是否会记住对话中之前发生的事情? | OpenAI 帮助中心 | https://help.openai.com/en/articles/6787051-does-chatgpt-remember-what-happened-earlier-in-the-conversation
我很乐意被证明是错误的,但我的理解是 ChatGPT 只“记住”您最近发送给它的提示文本。您可以通过在 OpenAI playground 中开始聊天,然后在提交文本后单击“查看代码”按钮来测试这一点。您会看到,每次提交更多文本时,它都会被附加到提示中:
prompt="The following is a conversation with an AI assistant. The assistant is helpful, creative, clever, and very friendly.\n\nHuman: Just testing to see how the prompt gets set.\nAI: Hi there! It looks like you're trying to find out about how to configure the prompts. Is there anything else I can help you with today?\nHuman: If I use OpenAI's chat functionality on my own application, should I keep updating the prompt each time a user posts a new question? It's definitely a good idea to keep your prompts up-to-date, as it will help ensure your users are getting the most relevant information for each question they post. Depending on the size of your application and the complexity of your conversations, you may want to update your prompts regularly or develop a more sophisticated system to determine when updates are necessary. Let me know if there is anything else I can help you with."
这可以一直持续到您达到文档中提到的 4000 个 token(约 3k 字)限制。请注意,发送大型提示可能会很昂贵。我认为使用 Davinci 模型目前是每 1000 个 token 0.02 美元。
如果我的理解是正确的,那么处理 ChatGPT for Discourse 的应用程序或 Discourse 插件需要将每个新问题和回复附加到提示中。它可以一直这样做,直到达到 4k token(约 3k 字)的限制。如果超过该限制,似乎会从 OpenAI 返回错误。该错误需要由向 OpenAI 发出请求的应用程序来处理。
token 限制的一个可能的解决方法是找到一种方法来提取对话中的关键细节,然后仅用这些细节更新提示。可能可以代表用户发出请求来获取此信息。类似这样:
然后可以将这些细节保存到向 OpenAI 发出请求的应用程序中,并在以后用于重新开始对话。
您可以在此处获得更确切的答案:https://community.openai.com/。很高兴看到他们使用 Discourse 作为他们的社区!
我认为你是正确的,但我提供的链接基本上说明 ChatGPT 没有会话间记忆。 . . 这正是我用例所需要的 . .
这就是我所指的(并且对我的用例至关重要):
抱歉,我误读了您说的话。