Es importante comprender las necesidades tanto del administrador de la comunidad como de sus miembros al elegir un Modelo de Lenguaje Grande (LLM) para potenciar las funciones de IA de Discourse.
Varios factores pueden influir en sus decisiones:
- Rendimiento para el caso de uso: ¿Busca el modelo con el mejor rendimiento? El rendimiento puede variar según la tarea (por ejemplo, resumen, búsqueda, razonamiento complejo, detección de spam). La evaluación se basa en la capacidad del modelo para generar respuestas correctas, relevantes y coherentes.
- Longitud del contexto: La ventana de contexto es la cantidad de texto que un modelo puede “ver” y considerar a la vez. Las ventanas de contexto más grandes permiten procesar más información (por ejemplo, temas más largos para resumir) y mantener la coherencia durante interacciones más largas.
- Compatibilidad: ¿El complemento Discourse AI es compatible con el modelo de fábrica? ¿Requerirá puntos finales de API o configuración específicos? Consulte la documentación del complemento para conocer los proveedores y modelos compatibles.
- Soporte de idiomas: Si bien muchos LLM líderes manejan bien varios idiomas, el rendimiento puede variar. Si su comunidad utiliza principalmente un idioma distinto del inglés, se recomienda probar modelos específicos para ese idioma.
- Capacidades multimodales: Algunas funciones, como la descripción de imágenes en AI Helper, requieren modelos que puedan procesar imágenes (visión). Asegúrese de que el modelo elegido admita las modalidades necesarias.
- Velocidad y modos: Los modelos más grandes y potentes pueden ser más lentos. Para funciones en tiempo real como AI Helper o Búsqueda, los modelos más rápidos pueden proporcionar una mejor experiencia de usuario. Algunos modelos ofrecen diferentes modos (por ejemplo, niveles de esfuerzo de pensamiento o razonamiento extendido), lo que permite una compensación entre la velocidad y un razonamiento más profundo.
- Costo: El presupuesto es a menudo un factor clave. Los costos de los modelos varían significativamente según el proveedor y el nivel del modelo. Los costos generalmente se miden por token (entrada y salida). Los modelos más rápidos/pequeños suelen ser más baratos que los modelos grandes/de alto rendimiento. Los modelos de código abierto a menudo se pueden ejecutar de manera más rentable dependiendo del alojamiento.
- Preocupaciones de privacidad: Los diferentes proveedores de LLM tienen distintas políticas de uso de datos y privacidad. Revise los términos de servicio, especialmente en lo que respecta a si sus datos pueden utilizarse para fines de entrenamiento. Algunos proveedores ofrecen opciones de retención cero de datos.
- Código abierto frente a código cerrado: Los modelos de código abierto ofrecen transparencia y la posibilidad de autoalojamiento o ajuste fino, aunque pueden requerir un mayor esfuerzo técnico. Los modelos de código cerrado suelen ser más fáciles de usar a través de API, pero ofrecen menos control y transparencia.
Elección de un LLM para las funciones de IA de Discourse
El panorama de los LLM evoluciona rápidamente. La siguiente tabla proporciona una descripción general de los modelos populares y capaces adecuados para varias funciones de IA de Discourse, clasificados por sus fortalezas típicas y perfiles de costo. Los modelos dentro de cada categoría se enumeran en orden alfabético.
Estas son pautas generales. Consulte siempre la documentación oficial del complemento Discourse AI para obtener la lista más actualizada de modelos compatibles y configuraciones requeridas. El rendimiento y el costo cambian con frecuencia; consulte la documentación del proveedor del LLM para obtener los últimos detalles. La disponibilidad y el rendimiento de los modelos de código abierto pueden depender del proveedor específico o de la configuración de alojamiento.
Una opción alternativa para los clientes alojados es utilizar los LLM preconfigurados disponibles a través de la interfaz de administración del complemento Discourse AI. Estos se pueden configurar a través de Administrador → Complementos → IA → LLMs, lo que proporciona ajustes preestablecidos con un solo clic para modelos populares de Anthropic, Google, OpenAI y OpenRouter.
| Categoría | Modelo | Proveedor | Fortalezas Clave / Casos de Uso | Notas |
|---|---|---|---|---|
| Rendimiento/Razonamiento Superior | Claude Opus 4.6 | Anthropic | Máxima capacidad de razonamiento, tareas complejas, análisis, generación | Modelo de Anthropic de mayor costo, contexto de 200K, excelente visión |
| Gemini 3 Pro | Alto rendimiento, ventana de contexto muy grande, multimodal fuerte | Contexto de 1M de tokens, excelente todoterreno | ||
| GPT-5.2 | OpenAI | Razonamiento de última generación, tareas complejas, generación, visión | Contexto de 400K, sólido todoterreno de OpenAI | |
| xAI Grok 4 Fast | xAI (a través de OpenRouter) | Razonamiento sólido, rendimiento competitivo | Disponible a través de OpenRouter, capaz de visión | |
| Equilibrado (Multiuso) | Claude Sonnet 4.6 | Anthropic | Alto rendimiento, buen razonamiento, contexto grande, visión, rápido | Excelente opción predeterminada, equilibra velocidad y capacidad, contexto de 200K |
| DeepSeek V3.2 | DeepSeek (a través de OpenRouter) | Fuerte rendimiento general, buena relación calidad-precio | Opción de código abierto, rentable para uso amplio, contexto de 163K | |
| Moonshot Kimi K2.5 | Moonshot (a través de OpenRouter) | Fuerte rendimiento, contexto muy grande, visión | Ventana de contexto de 262K, buena relación calidad-precio | |
| Rentable/Velocidad | Claude Haiku 4.5 | Anthropic | Rápido y de bajo costo, adecuado para tareas más simples, capaz de visión | Mejor para necesidades de alto volumen y baja latencia como búsqueda, resúmenes básicos |
| Gemini 3 Flash | Muy rápido y rentable, buenas capacidades generales, visión | Contexto de 1M, bueno para resumen, búsqueda, tareas de ayuda | ||
| GPT-5 Mini | OpenAI | Rápido, asequible, bueno para muchas tareas | Contexto de 400K, buen equilibrio entre costo/rendimiento para funciones más simples | |
| GPT-5 Nano | OpenAI | Opción de OpenAI extremadamente rápida y más barata | Mejor para necesidades de mayor volumen y menor costo | |
| Arcee Trinity Large (Gratis) | Arcee (a través de OpenRouter) | Opción de nivel gratuito, contexto de 128K | Bueno para pruebas o implementaciones con presupuesto muy ajustado | |
| Capaz de Visión | Claude Opus 4.6 / Sonnet 4.6 / Haiku 4.5 | Anthropic | Todos los modelos actuales de Anthropic admiten visión | Útil para la descripción de imágenes en AI Helper |
| Gemini 3 Pro / 3 Flash | Fuertes capacidades de visión | Útil para la descripción de imágenes en AI Helper | ||
| GPT-5.2 | OpenAI | Visión y texto integrados | Útil para la descripción de imágenes en AI Helper | |
| Moonshot Kimi K2.5 | Moonshot (a través de OpenRouter) | Capaz de visión | Disponible a través de OpenRouter | |
| xAI Grok 4 Fast | xAI (a través de OpenRouter) | Capaz de visión | Disponible a través de OpenRouter |
Asignación de recomendaciones generales (simplificada):
- Bot de IA (Preguntas y respuestas complejas, Agentes): Modelos de Rendimiento/Razonamiento Superior (Claude Opus 4.6, Gemini 3 Pro, GPT-5.2) o modelos Equilibrados sólidos (Claude Sonnet 4.6, DeepSeek V3.2).
- Búsqueda/Descubrimiento de IA: Modelos Rentables/Velocidad (Haiku 4.5, Gemini 3 Flash, GPT-5 Mini/Nano) o modelos Equilibrados para una mejor comprensión (Sonnet 4.6, DeepSeek V3.2).
- AI Helper (Sugerencias de títulos, corrección de pruebas, traducción): Modelos Rentables/Velocidad o modelos Equilibrados. La velocidad suele ser preferible. Claude Sonnet 4.6 o GPT-5 Mini son buenas opciones.
- Resumir: Modelos Equilibrados (Claude Sonnet 4.6, GPT-5.2, DeepSeek V3.2) o modelos Rentables (Gemini 3 Flash, GPT-5 Mini). Las ventanas de contexto más largas (Gemini 3 Pro/Flash con 1M de tokens) son beneficiosas para temas largos.
- Detección de Spam: Los modelos Rentables/Velocidad suelen ser suficientes y rentables (Haiku 4.5, Gemini 3 Flash, GPT-5 Mini/Nano).
- Traducción: Los modelos Rentables/Velocidad funcionan bien para la detección de idioma y las tareas de traducción (Haiku 4.5, Gemini 3 Flash, GPT-5 Mini).
- Automatización (Triaje, Informes): Depende de la complejidad. Las reglas de triaje simples funcionan bien con modelos Rentables. El triaje complejo basado en agentes se beneficia de los modelos Equilibrados o de Rendimiento Superior.
Recuerde configurar el(los) LLM(s) seleccionado(s) en la Administración de Discourse en Complementos → IA → Funciones para cada función, y configurar las conexiones de los LLM en Complementos → IA → LLMs.