在为 Discourse AI 功能选择支持的大型语言模型(LLM)时,了解您作为社区管理员和社区成员的需求至关重要。
以下几个因素可能会影响您的决策:
- 针对用例的性能:您是在寻找性能最好的模型吗?性能可能因任务不同(例如摘要、搜索、复杂推理、垃圾邮件检测)而异。评估基于模型生成正确、相关和连贯响应的能力。
- 上下文长度:上下文窗口是模型一次可以“看到”和考虑的文本量。较大的上下文窗口可以处理更多信息(例如,用于摘要的更长主题),并在更长的交互中保持连贯性。
- 兼容性:Discourse AI 插件是否开箱即用地支持该模型?它是否需要特定的 API 端点或配置?请查阅插件文档,了解支持的提供商和模型。
- 语言支持:虽然许多顶级 LLM 都能很好地处理多种语言,但性能可能有所不同。如果您的社区主要使用英语以外的语言,建议针对该语言测试特定的模型。
- 多模态能力:某些功能,例如 AI Helper 中的图像字幕,需要能够处理图像(视觉)的模型。请确保所选模型支持所需的模态。
- 速度和模式:更大、更强大的模型可能速度较慢。对于 AI Helper 或搜索等实时功能,速度更快的模型可能会提供更好的用户体验。某些模型提供不同的模式(例如,扩展的思考或推理努力级别),允许在速度和更深层次的推理之间进行权衡。
- 成本:预算通常是一个关键因素。模型成本因提供商和模型级别而有很大差异。成本通常按 token(输入和输出)计算。通常情况下,速度更快/更小的模型比大型/高性能模型便宜。开源模型根据托管情况,通常可以更具成本效益地运行。
- 隐私问题:不同的 LLM 提供商在数据使用和隐私政策方面有所不同。请审阅服务条款,特别是关于您的数据是否可能被用于训练的目的。一些提供商提供零数据保留选项。
- 开源与闭源:开源模型提供透明度,并有可能进行自我托管或微调,尽管这可能需要更多的技术工作。闭源模型通常更容易通过 API 使用,但控制权和透明度较低。
为 Discourse AI 功能选择 LLM
LLM 的格局发展迅速。下表根据目前流行且有能力的模型的一般优势和成本情况,概述了适用于各种 Discourse AI 功能的模型。每个类别中的模型按字母顺序列出。
这些是一般指南。请务必查阅官方 Discourse AI 插件文档,以获取最新支持的模型列表和所需配置。性能和成本变化频繁;请查阅 LLM 提供商的文档以获取最新详细信息。开源模型的可用性和性能可能取决于特定的提供商或托管设置。
托管客户的另一种选择是使用 Discourse AI 插件管理界面中提供的预配置 LLM。可以通过“管理 → 插件 → AI → LLM”进行设置,该界面为来自 Anthropic、Google、OpenAI 和 OpenRouter 的流行模型提供了一键预设。
| 类别 | 模型 | 提供商 | 关键优势/用例 | 备注 |
|---|---|---|---|---|
| 顶级性能/推理 | Claude Opus 4.6 | Anthropic | 最大的推理能力,复杂任务,分析,生成 | Anthropic 成本最高的模型,200K 上下文,出色的视觉能力 |
| Gemini 3 Pro | 高性能,非常大的上下文窗口,强大的多模态能力 | 1M token 上下文,优秀的全面模型 | ||
| GPT-5.2 | OpenAI | 最先进的推理,复杂任务,生成,视觉 | 400K 上下文,来自 OpenAI 的强大全面模型 | |
| xAI Grok 4 Fast | xAI (通过 OpenRouter) | 强大的推理能力,具有竞争力的性能 | 通过 OpenRouter 可用,具备视觉能力 | |
| 平衡(多用途) | Claude Sonnet 4.6 | Anthropic | 高性能,良好的推理能力,大上下文,视觉,速度快 | 优秀的默认选择,平衡速度和能力,200K 上下文 |
| DeepSeek V3.2 | DeepSeek (通过 OpenRouter) | 强大的通用性能,良好的价值 | 开源选项,对广泛使用具有成本效益,163K 上下文 | |
| Moonshot Kimi K2.5 | Moonshot (通过 OpenRouter) | 强大的性能,非常大的上下文,视觉 | 262K 上下文窗口,物有所值 | |
| 高性价比/速度 | Claude Haiku 4.5 | Anthropic | 快速且成本低廉,适用于较简单的任务,具备视觉能力 | 最适合高容量、低延迟需求,如搜索、基本摘要 |
| Gemini 3 Flash | 非常快速且具有成本效益,良好的通用能力,视觉 | 1M 上下文,适用于摘要、搜索、助手任务 | ||
| GPT-5 Mini | OpenAI | 快速、价格实惠,适用于许多任务 | 400K 上下文,成本/性能平衡,适用于较简单的功能 | |
| GPT-5 Nano | OpenAI | 极快且成本最低的 OpenAI 选项 | 最适合最高容量、最低成本的需求 | |
| Arcee Trinity Large (免费) | Arcee (通过 OpenRouter) | 免费层选项,128K 上下文 | 适用于测试或预算非常紧张的部署 | |
| 具备视觉能力 | Claude Opus 4.6 / Sonnet 4.6 / Haiku 4.5 | Anthropic | 所有当前的 Anthropic 模型都支持视觉 | 有助于 AI Helper 中的图像字幕 |
| Gemini 3 Pro / 3 Flash | 强大的视觉能力 | 有助于 AI Helper 中的图像字幕 | ||
| GPT-5.2 | OpenAI | 集成文本和视觉 | 有助于 AI Helper 中的图像字幕 | |
| Moonshot Kimi K2.5 | Moonshot (通过 OpenRouter) | 具备视觉能力 | 通过 OpenRouter 可用 | |
| xAI Grok 4 Fast | xAI (通过 OpenRouter) | 具备视觉能力 | 通过 OpenRouter 可用 |
通用建议映射(简化):
- AI 机器人(复杂问答,智能体):顶级性能/推理模型(Claude Opus 4.6、Gemini 3 Pro、GPT-5.2)或强大的平衡模型(Claude Sonnet 4.6、DeepSeek V3.2)。
- AI 搜索/发现:高性价比/速度模型(Haiku 4.5、Gemini 3 Flash、GPT-5 Mini/Nano)或平衡模型(Sonnet 4.6、DeepSeek V3.2)以获得稍好的理解能力。
- AI Helper(标题建议、校对、翻译):高性价比/速度模型或平衡模型。通常更偏好速度。Claude Sonnet 4.6 或 GPT-5 Mini 是不错的选择。
- 摘要:平衡模型(Claude Sonnet 4.6、GPT-5.2、DeepSeek V3.2)或高性价比模型(Gemini 3 Flash、GPT-5 Mini)。更长的上下文窗口(Gemini 3 Pro/Flash 的 1M token)对长主题有益。
- 垃圾邮件检测:高性价比/速度模型通常足够且具有成本效益(Haiku 4.5、Gemini 3 Flash、GPT-5 Mini/Nano)。
- 翻译:高性价比/速度模型适用于地区检测和翻译任务(Haiku 4.5、Gemini 3 Flash、GPT-5 Mini)。
- 自动化(分类、报告):取决于复杂性。简单的分类规则可使用高性价比模型。复杂的基于智能体的分类受益于平衡或顶级性能模型。
请记住,您需要在 Discourse 管理后台的“插件 → AI → 功能”中配置所选的 LLM,并在“插件 → AI → LLM”中设置 LLM 连接。