大家好,
我们正在公司网络内托管一个 Discourse 版块。我们无法集成 ChatGPT 或任何其他公共 LLM,但我们公司有一个大型项目,正在创建一个用于 AI 模块(包括 GPT)的内部服务。
他们有自己的 API,所以我想问一下是否可以编写一个自定义 LLM 插件?
或者我们还有其他什么选择?
对这个内部 API 的调用需要进行身份验证,API 本身还需要另一个 API 密钥,因此有几个强制性信息必须预先提供。
非常感谢任何帮助。
谢谢,祝好,
WS
大家好,
我们正在公司网络内托管一个 Discourse 版块。我们无法集成 ChatGPT 或任何其他公共 LLM,但我们公司有一个大型项目,正在创建一个用于 AI 模块(包括 GPT)的内部服务。
他们有自己的 API,所以我想问一下是否可以编写一个自定义 LLM 插件?
或者我们还有其他什么选择?
对这个内部 API 的调用需要进行身份验证,API 本身还需要另一个 API 密钥,因此有几个强制性信息必须预先提供。
非常感谢任何帮助。
谢谢,祝好,
WS
您可以使用自定义模型和/或端点与当前插件配合使用。
然后,如果您需要添加更多功能,也可以分叉并维护自己的插件。
是的,但是您是否已经安装了AI插件,看看它已经支持了什么?
只要您的内部终结点使用类似 OpenAI 的 API 接口,您就可以按原样使用 Discourse AI,只需定义一个自定义 LLM。
我会尝试一下。不过,我有一个很大的顾虑,那就是认证问题。
它不仅是 API 密钥,还基于 OIDC(公司政策问题
)。…
这意味着我需要以某种方式自定义面板针对此 API 发出请求的方式。是否可以在不分叉并自己动手的情况下实现?
谢谢大家,你们真是太棒了 ![]()