tom_eric
(tom eric )
1
大家好,
我有一个关于 Discourse AI 的问题,想知道它是否支持第三方中继/代理 API。
我尝试使用来自 NewAPI(一个第三方的 OpenAI 兼容代理)的中继 API,但 Discourse AI 返回了 “内部服务器错误”。我不确定这是我这边的配置问题还是 Discourse AI 的限制。
所以我想知道:
-
Discourse AI 目前是否支持 OpenAI 兼容的第三方/中继/代理 API?
-
或者它目前只支持 官方的 OpenAI 和 Google API?
-
如果支持第三方 API,是否需要特殊的设置(例如标头、基础 URL 格式、模型命名等)?
使用我自己的官方 API 密钥成本很高,所以如果可能的话,我希望能使用更便宜的中继选项。
另外,我想连接 Google BananaPro 来生成图片,只是为了好玩——也不确定那是否受支持。
任何提示或文档都将不胜感激。谢谢!
Falco
(Falco)
2
我们有客户每天通过与 OpenAI 兼容的代理进行数千次 AI 调用,所以我们知道它是可行的。主要问题在于他们所说的“与 OpenAI 兼容”到底有多兼容。
vLLM、Google、Ollama、LMStudio 都提供我们每天测试和使用的与 OpenAI 兼容的 API。
如果某个特定的提供商出现故障,通常可以通过 /logs 页面上的日志轻松找到原因。您能分享那里的错误信息吗?
1 个赞
tom_eric
(tom eric )
3
感谢您的回复。我明天会测试几个不同的第三方应用程序编程接口(API)。
discourse ai 支持几乎所有我所知道的第三方 API,例如 openrouter,newapi
只需配置 LLM 设置

输入您的 API 基础 URL、API 密钥和模型名称

1 个赞
tom_eric
(tom eric )
5
谢谢老哥的回复
但是这个回复好怪呀,
discourse必须得填系统提示词,我不想填系统提示词 只输入了一个.
就是直接的回答用户@的问题,模型直接回答就好,
还没摸索出来咋配置
@机器人时机器人时 不知道为什么 默认是 自定义提示 的提示词 (因为他回复的格式我找了 只有这个自定义提示 的提示词匹配)如下图所示: 改了依然无效 不知道咋回事
您可以在设置 AI 助手自定义提示角色 之前创建一个新角色

