本指南介绍在与 Discourse 中的 AI 机器人交互时,如何启用和使用原生的 PDF 和文档附件支持。用户可以直接在与 AI 角色的对话中上传 PDF 和其他文档。
所需用户级别:管理员
摘要
Discourse AI 现在支持原生的附件处理,允许用户在与 AI 机器人对话时直接上传 PDF 和其他文档类型。AI 可以读取和理解这些附件的内容,从而实现基于上传文件的文档分析、总结和问答等用例。
此功能需要:
- 启用了视觉功能的 LLM 模型
- 在 LLM 上配置了允许的附件类型
- 支持视觉功能的角色 (persona)
- 站点上传设置中授权了文件扩展名
支持的提供商
原生附件支持适用于以下提供商的模型:
- Anthropic (Claude 模型)
- Google (Gemini 模型)
- OpenAI (GPT 模型)
每个提供商在 API 级别处理附件的方式不同,但 Discourse AI 会自动处理此问题。请记住,不同的提供商对各种附件类型的支持程度不同。
支持的附件类型
以下文档类型可以配置为进行 AI 处理:
| 类型 | 扩展名 |
|---|---|
pdf |
|
| 純文本 | txt |
| Microsoft Word | doc, docx |
| 富文本格式 | rtf |
| HTML | html, htm |
| Markdown | md, markdown |
图像通过“启用视觉功能”设置单独处理,不需要配置附件类型。
配置
步骤 1:授权上传的文件扩展名
在用户可以上传附件之前,请确保在站点设置中授权了文件扩展名。
- 导航至 管理 (Admin) → 文件 (Files)
- 找到
授权的扩展名 (authorized extensions)设置 - 添加您希望允许的扩展名(例如:
pdf|txt|docx)
步骤 2:配置 LLM 模型
- 导航至 管理 (Admin) → 插件 (Plugins) → Discourse AI → LLMs
- 选择您要配置的 LLM 模型(或创建一个新模型)
- 启用 启用视觉功能 (Vision enabled) - 这是附件支持所必需的
- 在 允许的附件 (Allowed attachments) 字段中,选择或输入模型要接受的文件扩展名(例如:
pdf,txt,docx)

如果将“允许的附件”字段留空,则该模型的文档附件将被禁用。图像通过“启用视觉功能”切换单独控制。
步骤 3:配置角色 (Persona)
- 导航至 管理 (Admin) → 插件 (Plugins) → Discourse AI → AI 角色 (AI Personas)
- 选择或创建一个角色
- 确保为该角色启用了 视觉支持 (Vision support)
- 将 默认模型 (Default model) 设置为已配置视觉和附件的 LLM
工作原理
当用户在与 AI 机器人的对话中上传文档时:
- 文档使用标准的上传处理机制上传到 Discourse
- Discourse AI 对文档内容进行编码(base64)
- 编码后的内容与用户的消息一起发送给 LLM
- LLM 处理文本消息和文档内容
- AI 根据组合的上下文进行响应

技术细节
- 文档被编码为 base64 并与请求一起内联发送
- 每个提供商以其原生格式接收附件:
- Anthropic:使用
document类型和 base64 源 - Gemini:使用
inlineData格式 - OpenAI:使用
file类型,其中file_data包含 base64 内容
- Anthropic:使用
- 文件大小限制受您站点的
max attachment size kb(最大附件大小 kb)设置控制
用例
原生附件支持启用多种工作流程:
- 文档分析:上传合同、报告或研究论文供 AI 总结或回答问题
- 内容审查:让 AI 审查并对草稿文件提供反馈
- 数据提取:从上传的文档中提取特定信息
- 翻译辅助:上传一种语言的文档,讨论内容或请求翻译
- 技术支持:用户可以上传日志文件或配置文件以获得故障排除帮助
限制
- 文件大小:附件受您站点的上传大小设置和 LLM 供应商的限制
- 提供商支持:目前只有 Anthropic、Google 和 OpenAI 模型支持附件
- 视觉要求:必须启用 LLM 的视觉功能
- 扩展名匹配:文件扩展名必须同时在您的站点上授权上传,并在 LLM 的附件类型配置中允许
- 结果各异:由于 LLM 供应商和 LLM 正在处理文件,成本/准确性和结果会有所不同。Anthropic 用于分析的 token 通常比 OpenAI 或 Google 更多。
- 启用缓存:对于 OpenAI,请确保使用响应 API,它为缓存提供更一致的支持(启用思考时);对于 Anthropic 模型,您可能需要在 LLM 配置中显式启用缓存。这在进行多轮对话时尤为重要。
故障排除
附件未被处理
- 验证文件扩展名是否在您站点的
授权的扩展名 (authorized extensions)设置中 - 检查 LLM 是否已开启“启用视觉功能 (Vision enabled)”
- 确认文件类型是否列在 LLM 的“允许的附件 (Allowed attachments)”设置中
- 确保角色启用了视觉支持并使用了正确配置的 LLM
上传失败
- 检查您的
max attachment size kb(最大附件大小 kb)设置 - 验证文件扩展名是否已授权
- 非常大的 PDF 可能不受支持,每个 LLM 供应商的最大上传大小都不同。
AI 不理解文档
- 确保您使用的是支持文档理解的模型
- 尝试使用功能更强大的模型(例如:Claude Sonnet 4.5、GPT-5.1、Gemini Pro 3)
常见问题 (FAQs)
用户可以在一条消息中上传多个文档吗?
是的,用户可以在单个消息中包含多个附件,AI 可以访问所有这些附件。
这在聊天和私信 (PM) 中都有效吗?
是的,附件支持在与 AI 机器人的私信和聊天直接消息中都有效,前提是该角色已针对这些交互方法进行了配置。
这与角色上的 RAG 上传不同吗?
是的。RAG 上传是管理员添加到角色知识库中的文档,这些文档会被索引和搜索。原生附件支持允许最终用户在对话期间上传文档以进行即时分析,而无需索引。
上传的文档会发生什么?
文档将根据您站点的标准上传处理和保留策略进行处理。它们将作为常规的 Discourse 上传文件存储。