标题说明了一切——只是想知道是否有计划支持此模型,如果有,大概何时可以实现?
这对目前使用 GPT 3.5 Turbo 的任何人来说都是一个巨大的改进,因为它更智能且成本降低了 60% 以上。
标题说明了一切——只是想知道是否有计划支持此模型,如果有,大概何时可以实现?
这对目前使用 GPT 3.5 Turbo 的任何人来说都是一个巨大的改进,因为它更智能且成本降低了 60% 以上。
它已与Discourse AI 插件配合使用,您只需确保在 LLM 配置中使用 gpt-4o-mini 作为名称即可:
这真令人尴尬。谢谢老板 ![]()
![]()
也许我还没有充分地玩过它——已记下
我们会看看它能变得多聪明,或者说它能产生多少幻觉😏 我还记得 GPT-4o 发布时引起了多大的轰动,而现在却有很多抱怨。
不过,尝试一下总是好的。
有点离题,但我不完全明白为什么我们有两个地方可以告诉模型和 API,设置和 LLM 部分?
这是一个很好的观点。我怀疑这个模型的幻觉问题没有得到改善,但我通过在系统提示中设置大量约束在很大程度上缓解了这个问题——当然,这也有其自身的缺点。
这只对手动 LLM 设置有意义。所以我也忍不住问同样的问题 ![]()
这个想法是,你先设置好你的 LLM,然后为你选择的 Discourse AI 功能选择该 LLM,这就是为什么它们目前在两个不同的地方。
我们已经进行了一些内部讨论,关于也许将这个过程全部放在一个地方,即——在你设置 LLM 时,你也可以为特定的 AI 功能启用它,就像我们为 AI 机器人所做的那样。