Consulta de configuración: Resumen de IA en Discourse e integración de LLM

Hola equipo de soporte de Discourse,

Tengo algunas preguntas sobre el uso de la resumen de IA en Discourse y agradecería su ayuda para guiarme a través del proceso de configuración:

  1. Cómo inicializar el resumen de IA:

    • ¿Qué pasos debo seguir para activar y configurar el resumen de IA en Discourse?
    • ¿Se requieren complementos para comenzar con el resumen de IA? Si es así, ¿cuáles y dónde puedo encontrarlos?
  2. Usar nuestro propio LLM (de Dify):

    • ¿Es posible integrar nuestro LLM personalizado, creado a través de la aplicación Dify, para tareas de resumen en Discourse? Si es así, ¿cómo podemos hacerlo usando una API?
    • ¿Pueden proporcionar alguna documentación de API o guías de integración para conectar LLM de terceros a Discourse?
  3. Costo de los modelos de IA en Discourse:

    • Modelos de LLM disponibles: ¿Cuáles son los diferentes modelos de resumen de IA disponibles en Discourse y cómo elijo entre ellos?
    • Modelos gratuitos vs. de pago: ¿Hay algún modelo de LLM gratuito, o hay un costo asociado con todos ellos?
    • Restricciones de uso: ¿Existen limitaciones de uso para los modelos gratuitos, como límites de solicitudes diarias o restricciones de tokens?
    • Métricas de costo: ¿Cuál es la estructura de precios para cada modelo, incluidos los costos por solicitud o por token? Si hay varios niveles de precios, ¿pueden proporcionar un desglose para cada modelo?
  4. Información adicional:

    • Por favor, hágame saber si hay consideraciones o pasos adicionales que deba tomar para utilizar completamente las funciones de resumen de IA en Discourse.

¡Gracias de antemano por su ayuda!

Hola @S.AAKASH_MUTHIAH, la mayoría de tus consultas se pueden responder en la documentación del plugin de IA aquí.


Ver:

Y:


Sí, el plugin ai. Está incluido en el núcleo si estás actualizado, solo ve a /admin/plugins para habilitarlo y configurarlo.



La mayoría son de pago, pero puedes echar un vistazo a OpenRouter, que también ofrece algunos modelos gratuitos.


Hasta donde sé, esto dependerá de tu proveedor, pero si me equivoco, también puedes aplicar límites en Discourse.

Quizás veas:


Eso dependerá de tu proveedor de IA LLM; son diferentes.


Consulta toda la documentación del plugin de IA aquí.

Para la configuración que ofrece el plugin, consulta esta guía.


¡Espero que esto ayude!

1 me gusta

Hola,

¡Muchas gracias por tu respuesta rápida y útil!

Revisé las opciones del plugin en mi instancia de Discourse, pero no veo nada relacionado con IA listado allí. Adjunto una imagen que muestra las opciones de plugin disponibles de mi parte. ¿Podrías echarle un vistazo y decirme si me estoy perdiendo algo?

¿Estás en la última versión que pasó las pruebas?

1 me gusta

mi versión actual

Intenta actualizar tu foro y comprueba si eso funciona.

1 me gusta

Gracias, ahora funcionó.

Tengo una pregunta. Creé un flujo de trabajo en DIFY y ahora quiero usar la API de ese flujo de trabajo para integrar mi propio LLM. ¿Podrías también decirme en qué formato se deben enviar las entradas?
¿Y dónde agregar la API?
¿Y qué opción hay que hacer clic para configurar la nuestra?

Encontré una cosa, ¿es en esta página donde necesito configurar los ajustes?


Si es así, ¿qué opción debo seleccionar en este menú desplegable?

Si eliges ‘Configuración manual’ en la página de LLMs y pones tus claves allí, ¿funciona?

No he usado el plugin de IA en un tiempo, así que mi memoria al respecto es un poco confusa.

Me gustaría entender el tipo de entrada que se enviará al endpoint de la API desde Discourse.

@S.AAKASH_MUTHIAH ¿cómo va la configuración de IA en tu sitio? Voy a programar el cierre de este tema; siempre puedes iniciar nuevos temas cuando tengas nuevas preguntas.

Como señaló @NateDhaliwal, muchas de tus preguntas están respondidas en la documentación. Por favor, consulta eso antes de hacer preguntas.

Este tema se cerró automáticamente después de 6 días. Ya no se permiten nuevas respuestas.