Esta guía explica cómo habilitar y configurar la función de búsqueda de IA, que forma parte del plugin Discourse AI.
Nivel de usuario requerido: Administrador
Similar a Temas relacionados, la búsqueda de IA te ayuda a encontrar los temas más relevantes utilizando la similitud textual semántica que va más allá de una coincidencia exacta de palabras clave utilizada por la búsqueda tradicional. Esto da como resultado el descubrimiento de temas que no son coincidencias exactas pero que aún son relevantes para la búsqueda inicial. ¡Si no puedes encontrar lo que buscas, la búsqueda de IA está aquí para ayudarte!
Características
- Similitud textual semántica: va más allá de una simple coincidencia de palabras clave y utiliza análisis semántico para encontrar similitud textual
- Búsqueda rápida de IA
- Activada/desactivada para la búsqueda de IA en la búsqueda a página completa
- Resultados indicados por el icono

- Aplicable tanto a usuarios anónimos como a usuarios registrados
Habilitar la búsqueda de IA
Prerrequisitos
Para usar la Búsqueda de IA, necesitarás Embeddings y un Modelo de Lenguaje Grande (LLM).
Embeddings
Si estás en nuestro hosting, proporcionaremos una opción predeterminada. Para los autoalojados, sigue la guía en Discourse AI - Embeddings
Modelo de Lenguaje Grande (LLM)
Los clientes alojados en Discourse y los autoalojados deben configurar al menos un Modelo de Lenguaje Grande (LLM) de un proveedor.
Para empezar, puedes configurarlos a través de la página de configuración de Discourse AI - Modelo de Lenguaje Grande (LLM).
- OpenAI
- Anthropic
- Azure OpenAI
- AWS Bedrock con acceso a Anthropic
- Puntos finales de HuggingFace con modelo similar a Llama2
- Autoalojamiento de un LLM de código abierto para DiscourseAI
- Google Gemini
Configuración
- Ve a la configuración de
Administrador→Plugins→ busca o encuentradiscourse-aiy asegúrate de que esté habilitado - Habilita
ai_embeddings_enabledpara Embeddings - Habilita
ai_embeddings_semantic_search_enabledpara activar la búsqueda de IA
Preguntas frecuentes técnicas
Expandir para ver un resumen de la lógica de búsqueda de IA
mermaid height=255,auto
sequenceDiagram
Usuario->>+Discourse: Buscar "gamificación"
Discourse->>+LLM: Crear un artículo sobre "gamificación" en un foro sobre
"Discourse, un sistema de foros de Internet de código abierto."
LLM->>+Discourse: La gamificación implica aplicar elementos de diseño de juegos como
puntos, insignias, niveles y tablas de clasificación a contextos no lúdicos...
Discourse->>+EmbeddingsAPI: Generar Embeddings para "La gamificación implica aplicar elementos de diseño de juegos..."
EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
Discourse->>+PostgreSQL: Dame los temas más cercanos para [0.123, -0.321...]
PostgreSQL->>+Discourse: Temas: [1, 5, 10, 50]
Discourse->>+Usuario: Temas: [1, 5, 10, 50]
¿Cómo funciona la Búsqueda de IA?
- La consulta de búsqueda inicial se ejecuta a través de un LLM que crea un tema/publicación hipotético. Luego, se generan Embeddings para esa publicación y se busca en tu sitio coincidencias similares a la consulta de búsqueda. Finalmente, utiliza Reciprocal Rank Fusion (RFF) para reordenar los mejores resultados en línea con la búsqueda regular.
¿Cómo se procesan los datos de temas/publicaciones?
- Los datos del LLM son procesados por un proveedor externo, consulta a tu proveedor específico para obtener más detalles. Por defecto, el microservicio de Embeddings se ejecuta junto con otros servidores que alojan tus foros existentes. No hay terceros involucrados aquí, y esa información específica nunca sale de tu red interna en nuestro centro de datos virtual privado.
¿A dónde van los datos?
- Un tema/publicación hipotético creado por el proveedor del LLM se almacena temporalmente en caché junto con los Embeddings de ese documento. Los datos de Embeddings se almacenan en la misma base de datos donde almacenamos tus temas, publicaciones y usuarios. Es otra tabla de datos allí.
¿Cómo se ve el “modelo semántico” de Embeddings? ¿Cómo fue “entrenado” y hay alguna forma de probar que puede aplicarse con precisión a los temas de nuestras comunidades “especializadas”?
- Por defecto, utilizamos modelos de código abierto preentrenados, como este. Hemos implementado esto para muchos clientes y hemos descubierto que funciona bien tanto para comunidades de nicho como generales. Si el rendimiento no es lo suficientemente bueno para tu caso de uso, tenemos modelos más complejos listos, pero en nuestra experiencia, la opción predeterminada es una opción sólida.