Esta guía cubre la página de configuración de LLM, que forma parte del plugin Discourse AI.
Nivel de usuario requerido: Administrador
La página de configuración dedicada está diseñada para tener todo lo relacionado con los Modelos de Lenguaje Grandes (LLM) utilizados para las funciones de IA de Discourse en un solo lugar.
Dependiendo de la función de IA de Discourse habilitada, se podría necesitar un LLM. Por favor, revise cada función de IA de Discourse para saber si un LLM es un prerrequisito.
Funciones
- Añadir nuevos modelos, con información prellenada
- Añadir modelos personalizados no mencionados
- Configurar ajustes de LLM
- Permitir el uso específico de LLM para el Bot de IA
- Ver el nombre de usuario del Bot de IA
- Habilitar el soporte de visión (dependiente del modelo)
- Configurar tipos de archivo adjunto permitidos
- Configurar cuotas de uso por grupo
- Rastrear los costes de tokens de entrada/salida
- Probar
- Guardar configuraciones
Añadir conexiones de LLM
- Ir a
Administración→Plugins→IA- Ir a la pestaña
LLMs- Añadir una nueva conexión, elegir su modelo
- Introducir la clave de API (dependiendo del modelo, puede que tenga más campos para introducir manualmente) y guardar
- (Opcional) Probar su conexión para asegurarse de que funciona
LLMs Soportados
Siempre puede añadir una opción personalizada si no ve su modelo listado. Se añaden continuamente modelos soportados. Los modelos preconfigurados son plantillas; siempre puede lograr el mismo resultado usando la “Configuración manual”.
Anthropic
- Claude Opus 4.6
- Claude Sonnet 4.6
- Claude Haiku 4.5
- Gemini 3 Pro
- Gemini 3 Flash
OpenAI
- GPT-5.4
- GPT-5 Mini
- GPT-5 Nano
Open Router
- DeepSeek V3.2
- Moonshot Kimi K2.5
- xAI Grok 4 Fast
- MiniMax M2.5
- Z-AI GLM-5
- … y muchos más
Además, los clientes alojados pueden usar el LLM Pequeño Alojado de CDCK preconfigurado en la página de configuración. Este es un LLM de pesos abiertos alojado por Discourse, listo para usarse para potenciar las funciones de IA.
Campos de Configuración
Solo verá los campos relevantes para su proveedor de LLM seleccionado. Por favor, verifique dos veces cualquiera de los campos pre-rellenados con el proveedor apropiado, como el
Nombre del modeloCampos principales:
Nombre de visualización— el nombre amigable que se muestra en los menús desplegablesNombre del modelo— el identificador del modelo enviado a la API (ej.claude-sonnet-4-6,gpt-5.2)Proveedor— el servicio que aloja el modelo (ej. Anthropic, OpenAI, Google, AWS Bedrock, Azure, Open Router, etc.)URL— la URL del endpoint de la API (no se muestra para AWS Bedrock)Clave de API— configurada a través del sistema de Secretos de IATokenizadorTokens máximos de prompt— controla el recorte del prompt para evitar solicitudes de tamaño excesivoTokens máximos de salidaCoste de entrada/Coste de salida— coste por millón de tokens, utilizado para el seguimiento del usoCoste de entrada en caché/Coste de escritura en caché— para proveedores que soportan el almacenamiento en caché del promptVisión habilitada— habilita la comprensión de imágenes (dependiente del modelo)Tipos de archivo adjunto permitidos— tipos de archivo que el modelo puede procesarCampos específicos del proveedor (mostrados dinámicamente según el proveedor seleccionado):
- AWS Bedrock:
ID de clave de acceso,ARN de rol,Región, opciones de razonamiento/pensamiento,Almacenamiento en caché de prompt- Anthropic: opciones de razonamiento,
Almacenamiento en caché de prompt- OpenAI:
ID de organización,Esfuerzo de razonamiento,Nivel de servicio- Google:
Habilitar pensamiento,Nivel de pensamiento- Open Router:
Orden del proveedor,Cuantificaciones del proveedorCuotas (disponibles después de guardar inicialmente):
- Se pueden configurar cuotas de uso por grupo con tokens máximos, usos máximos y duración
Preguntas Frecuentes Técnicas
¿Qué es el tokenizador?
- El tokenizador traduce cadenas de texto a tokens, que es lo que un modelo utiliza para comprender la entrada.
¿Qué número debo usar para
Tokens máximos de prompt?
- Una buena regla general es el 50% de la ventana de contexto del modelo, que es la suma de cuántos tokens envía y cuántos tokens generan. Si el prompt se vuelve demasiado grande, la solicitud fallará. Ese número se utiliza para recortar el prompt y evitar que eso suceda.
Advertencias
- A veces es posible que no vea el modelo que quería usar listado. Aunque puede añadirlos manualmente, soportaremos los modelos populares a medida que salgan.
Es demasiado difícil, no sé cómo hacerlo. Espero que actualicen tutoriales específicos sobre varias IA, como la configuración de inicio de sesión de Google.
Hemos mejorado mucho la interfaz de usuario en la última semana, ¿puedes probarla de nuevo?
¿Cuándo será compatible con Gemini 2.0?
Ha sido apoyado durante bastante tiempo.
Parece que tengo un problema donde no puedo seleccionar un LLM aunque tengo los configurados en los alojados por CDCK..
¿esto es normal?
Aquí hay mucho que desempacar, ¿qué LLM intentas elegir y para qué?
Los LLM de CDCK solo están disponibles para características muy específicas; para ver cuáles necesitas, dirígete a /admin/whats-new en tu instancia y haz clic en “mostrar solo características experimentales”, deberás habilitarlas para desbloquear el LLM de CDCK en características específicas.
Cualquier LLM que definas fuera de los LLM de CDCK está disponible para todas las características.
¿También hay un tema que ofrezca un resumen general del mejor equilibrio entre costo y calidad? ¿O incluso qué LLM se puede usar de forma gratuita para una pequeña comunidad y funcionalidad básica? Puedo profundizar en los detalles y experimentar. Pero tengo un poco de prisa.
Por ejemplo, solo me preocupa la detección de spam y un filtro de lenguaje inapropiado. Tenía esto gratis, pero esos complementos están obsoletos o pronto lo estarán. Sería bueno si pudiera conservar esta funcionalidad sin tener que pagar por un LLM.
Tenemos este tema, que podría ser lo que buscas.
¡Hecho! De hecho, fue bastante fácil. Pero tal vez para alguien no técnico todavía sea un poco difícil de configurar. Por ejemplo, el nombre del modelo se estableció automáticamente en la configuración, pero no era el correcto. Por suerte, reconocí el nombre del modelo en un ejemplo de curl para Claude en la página de la API y entonces funcionó ![]()
Los costos estimados son tal vez 30 céntimos de euro por mes para el control de spam (no tengo un foro enorme). ¡Así que es manejable! He establecido un límite de 5 euros en la consola de la API, por si acaso.
¿Cuál elegiste para Claude? ¿Cuál fue el nombre incorrecto que se mostró y a qué lo corregiste?
Utilizo Claude 3.5, el ID del modelo por defecto es claude-3-5-haiku, pero tuve que cambiarlo a claude-3-5-haiku-20241022, de lo contrario, recibía un error.
Bueno tenerlo en cuenta, sí, a veces puede haber una desconexión. La información autocompletada debería servir de guía, lo que tiende a funcionar la mayor parte del tiempo, pero falla en ciertos casos como el tuyo (dadas todas las diferentes configuraciones de modelos y proveedores).
He actualizado la publicación principal de esta guía.
Este modelo no está listado en 3.4.2. ¿Esas preconfiguraciones solo están disponibles en 3.5 y tengo que agregarlas manualmente?
Editar: Además, ¿qué opción debo elegir para “Tokenizer” al usar modelos Grok 3?
Las preconfiguraciones son simplemente plantillas, puedes obtener el mismo resultado final utilizando la “Configuración manual”.
He descubierto que el tokenizador de Gemini está bastante cerca del de Grok, así que prueba con ese.
¿Hay alguna forma de utilizar IBM WatsonX a través de la configuración de gestión actual, o esto requeriría trabajo de desarrollo adicional por parte del personal de Discourse?
¿Por casualidad IBM WatsonX expone una API compatible con OpenAI?
Gran pregunta. Una rápida revisión de la documentación no me dijo mucho, pero el hecho de que este repositorio exista sugiere que no es directamente compatible: GitHub - aseelert/watsonx-openai-api: Watsonx Openai compatible API
¿Cuáles de estos LLM se pueden usar gratis para anti-spam?
Edición: No importa, estoy usando Gemini Flash 2.5
Yo también siempre me lo pregunto. Esta parece ser la mejor respuesta a esa pregunta.
Pero también, está esto en el OP del tema de configuración de Spam. Creo que es solo un poco difícil de encontrar en toda la información que hay.


