创建自定义LLM插件还是其他选项?

大家好,

我们正在公司网络内托管一个 Discourse 版块。我们无法集成 ChatGPT 或任何其他公共 LLM,但我们公司有一个大型项目,正在创建一个用于 AI 模块(包括 GPT)的内部服务。
他们有自己的 API,所以我想问一下是否可以编写一个自定义 LLM 插件?
或者我们还有其他什么选择?

对这个内部 API 的调用需要进行身份验证,API 本身还需要另一个 API 密钥,因此有几个强制性信息必须预先提供。

非常感谢任何帮助。

谢谢,祝好,

WS

1 个赞

您可以使用自定义模型和/或端点与当前插件配合使用。

然后,如果您需要添加更多功能,也可以分叉并维护自己的插件。

3 个赞

是的,但是您是否已经安装了AI插件,看看它已经支持了什么?

2 个赞

只要您的内部终结点使用类似 OpenAI 的 API 接口,您就可以按原样使用 Discourse AI,只需定义一个自定义 LLM。

2 个赞

我会尝试一下。不过,我有一个很大的顾虑,那就是认证问题。
它不仅是 API 密钥,还基于 OIDC(公司政策问题 :slight_smile:)。…
这意味着我需要以某种方式自定义面板针对此 API 发出请求的方式。是否可以在不分叉并自己动手的情况下实现?
谢谢大家,你们真是太棒了 :+1: