Esta guía explica cómo habilitar y usar el soporte nativo para archivos PDF y adjuntos de documentos al interactuar con bots de IA en Discourse. Los usuarios pueden cargar archivos PDF y otros documentos directamente en las conversaciones con las personas de IA.
Nivel de usuario requerido: Administrador
Resumen
Discourse AI ahora admite el manejo nativo de adjuntos, lo que permite a los usuarios cargar archivos PDF y otros tipos de documentos directamente al conversar con bots de IA. La IA puede leer y comprender el contenido de estos adjuntos, lo que permite casos de uso como el análisis de documentos, la generación de resúmenes y la respuesta a preguntas basadas en archivos cargados.
Esta característica requiere:
- Un modelo LLM con visión habilitada
- Tipos de adjuntos permitidos configurados en el LLM
- Una persona que admita la visión
- Que la extensión del archivo esté autorizada en la configuración de carga de su sitio
Proveedores compatibles
El soporte nativo para adjuntos funciona con modelos de los siguientes proveedores:
- Anthropic (modelos Claude)
- Google (modelos Gemini)
- OpenAI (modelos GPT)
Cada proveedor maneja los adjuntos de manera diferente a nivel de API, pero Discourse AI lo gestiona automáticamente. Tenga en cuenta que diferentes proveedores implementan diferentes niveles de soporte para varios tipos de adjuntos.
Tipos de adjuntos compatibles
Los siguientes tipos de documentos se pueden configurar para el procesamiento de IA:
| Tipo | Extensiones |
|---|---|
pdf |
|
| Texto sin formato | txt |
| Microsoft Word | doc, docx |
| Formato de texto enriquecido | rtf |
| HTML | html, htm |
| Markdown | md, markdown |
Las imágenes se gestionan por separado a través de la configuración “Visión habilitada” y no requieren configuración del tipo de adjunto.
Configuración
Paso 1: Autorizar extensiones de archivo para la carga
Antes de que los usuarios puedan cargar adjuntos, asegúrese de que las extensiones de archivo estén autorizadas en la configuración de su sitio.
- Navegue a Admin → Files (Archivos)
- Busque la configuración
authorized extensions(extensiones autorizadas) - Agregue las extensiones que desea permitir (ejemplo:
pdf|txt|docx)
Paso 2: Configurar el modelo LLM
- Navegue a Admin → Plugins → Discourse AI → LLMs
- Seleccione el modelo LLM que desea configurar (o cree uno nuevo)
- Habilite Vision enabled (Visión habilitada): esto es necesario para el soporte de adjuntos
- En el campo Allowed attachments (Adjuntos permitidos), seleccione o escriba las extensiones de archivo que desea que acepte el modelo (ejemplo:
pdf,txt,docx)

Si deja el campo “Allowed attachments” (Adjuntos permitidos) en blanco, los adjuntos de documentos se deshabilitarán para ese modelo. Las imágenes se controlan por separado a través del interruptor “Vision enabled” (Visión habilitada).
Paso 3: Configurar la persona
- Navegue a Admin → Plugins → Discourse AI → AI Personas
- Seleccione o cree una persona
- Asegúrese de que Vision support (Soporte de visión) esté habilitado para la persona
- Establezca el Default model (Modelo predeterminado) en un LLM que tenga configurada la visión y los adjuntos
Cómo funciona
Cuando un usuario carga un documento en una conversación con un bot de IA:
- El documento se carga en Discourse utilizando el manejo de carga estándar
- Discourse AI codifica el contenido del documento (base64)
- El contenido codificado se envía al LLM junto con el mensaje del usuario
- El LLM procesa tanto el mensaje de texto como el contenido del documento
- La IA responde basándose en el contexto combinado

Detalles técnicos
- Los documentos se codifican como base64 y se envían en línea con la solicitud
- Cada proveedor recibe los adjuntos en su formato nativo:
- Anthropic: Utiliza el tipo
documentcon fuente base64 - Gemini: Utiliza el formato
inlineData - OpenAI: Utiliza el tipo
fileconfile_dataque contiene el contenido base64
- Anthropic: Utiliza el tipo
- Los límites de tamaño de archivo se rigen por la configuración
max attachment size kb(tamaño máximo de adjunto en kb) de su sitio
Casos de uso
El soporte nativo para adjuntos permite varios flujos de trabajo:
- Análisis de documentos: Cargue contratos, informes o artículos de investigación para que la IA los resuma o responda preguntas sobre ellos
- Revisión de contenido: Pida a la IA que revise y proporcione comentarios sobre borradores de documentos
- Extracción de datos: Extraiga información específica de los documentos cargados
- Asistencia de traducción: Cargue documentos en un idioma y discuta el contenido o solicite traducciones
- Soporte técnico: Los usuarios pueden cargar archivos de registro o archivos de configuración para obtener ayuda en la solución de problemas
Limitaciones
- Tamaño del archivo: Los adjuntos están limitados por la configuración de tamaño de carga de su sitio y el proveedor de LLM
- Soporte del proveedor: Actualmente, solo los modelos de Anthropic, Google y OpenAI admiten adjuntos
- Requisito de visión: El LLM debe tener habilitadas las capacidades de visión
- Coincidencia de extensión: La extensión del archivo debe estar autorizada para la carga en su sitio y permitida en la configuración de tipos de adjuntos del LLM
- Los resultados varían: Dado que los proveedores de LLM y los LLM procesan los archivos, el costo/precisión y los resultados variarán. Anthropic tiende a usar más tokens para el análisis que OpenAI o Google.
- Habilitar el almacenamiento en caché: Para Open AI, asegúrese de usar la API de respuestas que ofrece un soporte más consistente para el almacenamiento en caché (cuando el pensamiento está habilitado); para los modelos Anthropic, es posible que deba habilitar el almacenamiento en caché explícitamente en la configuración del LLM. Esto puede ser particularmente importante al tener conversaciones de varios turnos.
Solución de problemas
Los adjuntos no se están procesando
- Verifique que la extensión del archivo esté en la configuración
authorized extensions(extensiones autorizadas) de su sitio - Compruebe que el LLM tenga activada la opción “Vision enabled” (Visión habilitada)
- Confirme que el tipo de archivo esté listado en la configuración “Allowed attachments” (Adjuntos permitidos) del LLM
- Asegúrese de que la persona tenga habilitado el soporte de visión y utilice un LLM configurado correctamente
La carga falla
- Compruebe su configuración
max attachment size kb(tamaño máximo de adjunto en kb) - Verifique que la extensión del archivo esté autorizada
- Los PDF muy grandes pueden no ser compatibles; cada proveedor de LLM tiene diferentes tamaños máximos de carga.
La IA no entiende el documento
- Asegúrese de estar utilizando un modelo que admita la comprensión de documentos
- Pruebe un modelo más capaz (ejemplo: Claude Sonnet 4.5, GPT-5.1, Gemini Pro 3)
Preguntas frecuentes
¿Pueden los usuarios cargar varios documentos en un solo mensaje?
Sí, los usuarios pueden incluir varios adjuntos en un solo mensaje, y la IA tendrá acceso a todos ellos.
¿Funciona esto en el chat y en los mensajes privados?
Sí, el soporte para adjuntos funciona tanto en mensajes privados con bots de IA como en mensajes directos de chat, siempre que la persona esté configurada para esos métodos de interacción.
¿Es esto diferente de las cargas RAG en las personas?
Sí. Las cargas RAG son documentos añadidos por los administradores a la base de conocimiento de una persona, los cuales son indexados y buscados. El soporte nativo para adjuntos permite a los usuarios finales cargar documentos durante las conversaciones para un análisis inmediato sin indexación.
¿Qué sucede con los documentos cargados?
Los documentos se procesan de acuerdo con el manejo de carga y las políticas de retención estándar de su sitio. Se almacenan como cargas normales de Discourse.