Discourse AI 是否支持第三方中继/代理 API(例如 NewAPI)?出现“内部服务器错误”

大家好,

我有一个关于 Discourse AI 的问题,想知道它是否支持第三方中继/代理 API。

我尝试使用来自 NewAPI(一个第三方的 OpenAI 兼容代理)的中继 API,但 Discourse AI 返回了 “内部服务器错误”。我不确定这是我这边的配置问题还是 Discourse AI 的限制。

所以我想知道:

  1. Discourse AI 目前是否支持 OpenAI 兼容的第三方/中继/代理 API?

  2. 或者它目前只支持 官方的 OpenAI 和 Google API

  3. 如果支持第三方 API,是否需要特殊的设置(例如标头、基础 URL 格式、模型命名等)?

使用我自己的官方 API 密钥成本很高,所以如果可能的话,我希望能使用更便宜的中继选项。
另外,我想连接 Google BananaPro 来生成图片,只是为了好玩——也不确定那是否受支持。

任何提示或文档都将不胜感激。谢谢!

我们有客户每天通过与 OpenAI 兼容的代理进行数千次 AI 调用,所以我们知道它是可行的。主要问题在于他们所说的“与 OpenAI 兼容”到底有多兼容。

vLLM、Google、Ollama、LMStudio 都提供我们每天测试和使用的与 OpenAI 兼容的 API。

如果某个特定的提供商出现故障,通常可以通过 /logs 页面上的日志轻松找到原因。您能分享那里的错误信息吗?

1 个赞

感谢您的回复。我明天会测试几个不同的第三方应用程序编程接口(API)。

discourse ai 支持几乎所有我所知道的第三方 API,例如 openrouter,newapi

只需配置 LLM 设置
image

输入您的 API 基础 URL、API 密钥和模型名称
image

1 个赞

谢谢老哥的回复

但是这个回复好怪呀,

discourse必须得填系统提示词,我不想填系统提示词 只输入了一个.

就是直接的回答用户@的问题,模型直接回答就好,

还没摸索出来咋配置

@机器人时机器人时 不知道为什么 默认是 自定义提示 的提示词 (因为他回复的格式我找了 只有这个自定义提示 的提示词匹配)如下图所示: 改了依然无效 不知道咋回事

您可以在设置 AI 助手自定义提示角色 之前创建一个新角色
image

image