我正在尝试将自定义 LLM 添加到 Discourse AI 插件中。当我按下“测试”按钮时,我收到“内部服务器错误”。
有没有办法调试这个问题或获得更清晰的错误消息?当我进入 Docker 镜像并使用 curl 调用 /v1/models 时,我可以正确获取。
模型名称是“models/Meta-Llama-3-8B-Instruct.Q6_K.gguf”,我不确定是否有特殊字符可能导致问题。
我正在尝试将自定义 LLM 添加到 Discourse AI 插件中。当我按下“测试”按钮时,我收到“内部服务器错误”。
有没有办法调试这个问题或获得更清晰的错误消息?当我进入 Docker 镜像并使用 curl 调用 /v1/models 时,我可以正确获取。
模型名称是“models/Meta-Llama-3-8B-Instruct.Q6_K.gguf”,我不确定是否有特殊字符可能导致问题。
另一个尝试给出了:Trying to contact the model returned this error: {"error":{"code":404,"message":"File Not Found","type":"not_found_error"}}
但它没有显示正在尝试获取的 URL/模型,这可能有助于调试。
相同的设置被粘贴到 Open WebUI 中,它能够正确联系两个 LLM 端点并进行推理。
您正在使用哪个推理服务器?vLLM?
配置 URL 时,请在末尾添加路径 /v1/chat/completions。
这就是问题所在。请注意,在大型语言模型软件中,通常只包含到 /v1 作为端点 URL。然后通常由软件添加 /chat/completion 等的选择。
我正在尝试在本地主机上运行一个进行测试,因此将 URL 设置为:“http://172.17.0.1:8081/v1/chat/completions”,但收到内部服务器错误。我能够从 discourse Docker 容器 curl “http://172.17.0.1:8081/v1/models”,因此连接是正常的。
还有其他陷阱吗(例如,Discourse 是否允许 LLM 端点使用非 https 和任意端口)?
两者都应该可以工作。
在 /logs 上看到了什么错误?
啊。我不知道有 /logs!
NameError (undefined local variable or method 'tokenizer' for an instance of DiscourseAi::Completions::Dialects::ChatGpt) app/controllers/application_controller.rb:424:in 'block in with_resolved_local
嗯。那个能工作的模型是我自己量化的。我将尝试量化其他模型,看看是否是模型格式问题。
有人成功使用 DeepSeek API 了吗?我正在尝试弄清楚如何将其与 Discourse 配合使用。
它在 Open WebUI 和其他客户端上运行正常。
这里有一个关于它的主题