Es Discourse Chatbot 🤖. La pista está en el nombre (¡aunque puedes cambiarle el nombre!). Por favor, publica los problemas en el Tema del Chatbot. Pero en cualquier caso, el modelo se establecerá en la configuración del Chatbot :).
Basta decir que activa los registros detallados del Chatbot en la configuración, redirigiendo la información a advertencias (para que puedas leerlas en producción) y comprueba /logs
Sí, entiendo que la IA puede ser de diferentes proveedores, no necesariamente de Discourse.
Por esto entendí que ‘Chatbot’ ha sido desarrollado/es manejado por Discourse, pero no por ningún proveedor de IA de terceros. Y así encontré/presté atención a esta página de configuración de administrador: ..plugins/discourse-chatbot/settings (que antes me había pasado por alto).
Pero incluso ahora (después de este nuevo conocimiento), siempre intenta responder/sigue mostrando ‘Respondiendo…’. (No puedo descifrar los ‘Registros’ ni los mensajes de sidekiq y encontrar cuál es el culpable).
¿Puedes decirme si el otro bot (activado desde la configuración llamada a continuación) es más exhaustivo de usar (y fácil de configurar)?
Bot de IA para añadir al encabezado >> Mostrar un botón en el encabezado para iniciar un MP con un Bot de IA
No, Chatbot fue el primer Bot de IA en Discourse y lo desarrollé yo
Por eso la URL de GitHub contiene mi nombre de usuario y por qué mi avatar está en el Tema
Si fuera tan amable, ¿por qué el menú desplegable para controlar qué modelos puede usar (el Plugin de Bot de IA) solo ofrece modelos ‘Chat GPT’ y cómo puede usarlos, incluso sin pedir mi clave API de ChatGPT (tiene acceso a mi clave API de ChatGPT de la configuración de IA que configuré en otro lugar)?
Y por último, ¿opinaría que este ChatBot es mejor que el otro ofrecido en la configuración de IA?
Preferiría ir ahora a esta página de plugin para aclarar mis dudas anteriores.
Hoy lanzo una pequeña actualización para Chatbot, pero que corrige un error desagradable e introduce RAG en los modelos de razonamiento:
Si crees que Chatbot es increíble y he hecho un gran trabajo, puedes invitarme a un café, y si Chatbot es importante para tu negocio u organización, considera patrocinarme en uno de los niveles más altos. Todo esto ayudará a garantizar actualizaciones oportunas de Chatbot y su futuro.
Versión 1.4.7
CARACTERÍSTICA: Añadir modelos de razonamiento adicionales, en particular o3-mini
CARACTERÍSTICA: Soporte RAG para modelos de razonamiento (actualmente, solo o3-mini)
CORRECCIÓN: permitir al usuario discutir imágenes generadas por el bot
NB
Si usas o3-mini, asegúrate de darle suficientes tokens de respuesta máxima de Chatbot para que pueda consumirlos durante el razonamiento…
discutir una imagen requiere que se cargue. Dependiendo de tu configuración, puede tardar un minuto o más en cargarse una imagen.
Hola, cuando selecciono el mpdeli o3 mini predeterminado de openai, el plugin funciona correctamente y responde, pero no responde a las publicaciones con fotos. La configuración de visión se selecciona directamente, solo está la configuración de gpt 4o, ¿es por eso que obtengo un error?
Lo configuré de esta manera e hice pruebas, no puede ver el contenido de las imágenes y no responde. ¿Podría ser porque uso todos los niveles de confianza o3-mini? Cuando cambio a todos los niveles de confianza 4o, responde.
Si habilita la configuración experimental chatbot_support_pdf, ahora enviará el contenido de cualquier PDF cargado dentro de la conversación actual a OpenAI, que formará parte del contexto de la conversación.
CONSEJO: con cada carga en el área pública, pídale al chatbot un resumen del documento, luego incrustará la respuesta resultante y será fácil pedirle al chatbot más tarde que lo encuentre.
NB: esto puede funcionar solo con llamadas directas a OpenAI. Si está utilizando otras URL base para invocar otros servicios, no hay garantía de que lo admitan.
Solo para su información, solo admite Publicaciones por ahora.
¿Es posible que un nuevo foro ejecute este bot con un presupuesto limitado o sin costo alguno al principio? Creo que parece interesante y me gustaría probarlo, pero tengo miedo de que se alcance el cuota o que me cueste más de lo esperado. Leí el modelo de precios de OpenAI, pero pensé que era un poco vago.
Hola @Olle11, no es posible ejecutar este plugin de manera “gratuita” a menos que configures un LLM local en tu infraestructura, pero eso irónicamente es una opción costosa porque necesitarás un servidor realmente potente.
Sin embargo, puedes obtener algunos créditos gratuitos (¿$5?) al configurar tu cuenta de OpenAI (enlace en configuraciones).
Puedes establecer cuotas para diferentes niveles de usuarios o hacer que solo esté disponible para administradores si lo prefieres.
Usarlo con gpt-4o-mini no debería ser muy caro y ese modelo es lo suficientemente potente para algunas interacciones excelentes.
responder automáticamente a los nuevos usuarios del foro
resumir artículos vinculados o páginas web
sugerir contenido en el foro que un usuario podría encontrar interesante
búsqueda interactiva privada del foro.
discutir un PDF subido
dibujar imágenes :sonrisa:
en combinación con el plugin Locations, te permite discutir la proximidad de los usuarios entre sí y a lugares específicos.
Hay otros propósitos listados en el OP, pero los anteriores son comunes en mis sitios.
También puedes construir plugins para ello y tengo uno específico para uno de mis sitios que devuelve estadísticas específicas del elemento consultado.