Discourse AI - búsqueda de IA

:bookmark: Esta guía explica cómo habilitar y configurar la función de búsqueda de IA, que forma parte del plugin Discourse AI.

:person_raising_hand: Nivel de usuario requerido: Administrador

Similar a Temas relacionados, la búsqueda de IA te ayuda a encontrar los temas más relevantes utilizando la similitud textual semántica que va más allá de una coincidencia exacta de palabras clave utilizada por la búsqueda tradicional. Esto da como resultado el descubrimiento de temas que no son coincidencias exactas pero que aún son relevantes para la búsqueda inicial. ¡Si no puedes encontrar lo que buscas, la búsqueda de IA está aquí para ayudarte!

Características

  • Similitud textual semántica: va más allá de una simple coincidencia de palabras clave y utiliza análisis semántico para encontrar similitud textual
  • Búsqueda rápida de IA
  • Activada/desactivada para la búsqueda de IA en la búsqueda a página completa
  • Resultados indicados por el icono :sparkles:
  • Aplicable tanto a usuarios anónimos como a usuarios registrados

Habilitar la búsqueda de IA

Prerrequisitos

Para usar la Búsqueda de IA, necesitarás Embeddings y un Modelo de Lenguaje Grande (LLM).

Embeddings

Si estás en nuestro hosting, proporcionaremos una opción predeterminada. Para los autoalojados, sigue la guía en Discourse AI - Embeddings

Modelo de Lenguaje Grande (LLM)

Los clientes alojados en Discourse y los autoalojados deben configurar al menos un Modelo de Lenguaje Grande (LLM) de un proveedor.

Para empezar, puedes configurarlos a través de la página de configuración de Discourse AI - Modelo de Lenguaje Grande (LLM).

Configuración

  1. Ve a la configuración de AdministradorPlugins → busca o encuentra discourse-ai y asegúrate de que esté habilitado
  2. Habilita ai_embeddings_enabled para Embeddings
  3. Habilita ai_embeddings_semantic_search_enabled para activar la búsqueda de IA

Preguntas frecuentes técnicas

Expandir para ver un resumen de la lógica de búsqueda de IA
mermaid height=255,auto
sequenceDiagram
    Usuario->>+Discourse: Buscar "gamificación"
    Discourse->>+LLM: Crear un artículo sobre "gamificación" en un foro sobre
  "Discourse, un sistema de foros de Internet de código abierto."
    LLM->>+Discourse: La gamificación implica aplicar elementos de diseño de juegos como
  puntos, insignias, niveles y tablas de clasificación a contextos no lúdicos...
    Discourse->>+EmbeddingsAPI: Generar Embeddings para "La gamificación implica aplicar elementos de diseño de juegos..."
    EmbeddingsAPI->>+Discourse: [0.123, -0.321...]
    Discourse->>+PostgreSQL: Dame los temas más cercanos para [0.123, -0.321...]
    PostgreSQL->>+Discourse: Temas: [1, 5, 10, 50]
    Discourse->>+Usuario: Temas: [1, 5, 10, 50]

¿Cómo funciona la Búsqueda de IA?

  • La consulta de búsqueda inicial se ejecuta a través de un LLM que crea un tema/publicación hipotético. Luego, se generan Embeddings para esa publicación y se busca en tu sitio coincidencias similares a la consulta de búsqueda. Finalmente, utiliza Reciprocal Rank Fusion (RFF) para reordenar los mejores resultados en línea con la búsqueda regular.

¿Cómo se procesan los datos de temas/publicaciones?

  • Los datos del LLM son procesados por un proveedor externo, consulta a tu proveedor específico para obtener más detalles. Por defecto, el microservicio de Embeddings se ejecuta junto con otros servidores que alojan tus foros existentes. No hay terceros involucrados aquí, y esa información específica nunca sale de tu red interna en nuestro centro de datos virtual privado.

¿A dónde van los datos?

  • Un tema/publicación hipotético creado por el proveedor del LLM se almacena temporalmente en caché junto con los Embeddings de ese documento. Los datos de Embeddings se almacenan en la misma base de datos donde almacenamos tus temas, publicaciones y usuarios. Es otra tabla de datos allí.

¿Cómo se ve el “modelo semántico” de Embeddings? ¿Cómo fue “entrenado” y hay alguna forma de probar que puede aplicarse con precisión a los temas de nuestras comunidades “especializadas”?

  • Por defecto, utilizamos modelos de código abierto preentrenados, como este. Hemos implementado esto para muchos clientes y hemos descubierto que funciona bien tanto para comunidades de nicho como generales. Si el rendimiento no es lo suficientemente bueno para tu caso de uso, tenemos modelos más complejos listos, pero en nuestra experiencia, la opción predeterminada es una opción sólida.
6 Me gusta

He notado un pequeño error en la interfaz de usuario para ai embeddings semantic search hyde model. Pasos para reproducir

  1. Instalar el plugin AI Discourse
  2. Abrir configuración → Configurar clave Gemini
  3. Habilitar i embeddings semantic search enabled
  4. ai embeddings semantic search hyde model muestra Google - gemini-pro (no configurado)

El no configurado no desaparece hasta después de que se habilitan todas las configuraciones y la página se actualiza posteriormente.

2 Me gusta

Creo que esta es una limitación de nuestra página de configuración del sitio, así que me disculpo por ello y me alegro de que hayas podido solucionarlo.

1 me gusta

Una pregunta sobre semántica. En algunos módulos de IA veo una referencia a usar Gemini mientras que en otros veo una referencia a Gemini-Pro. ¿Se refieren a modelos diferentes (Gemini Nano, Pro y Ultra) o se refieren al mismo LLM? Si es así, ¿a qué se refiere Gemini en sí mismo y importa si uno tiene una suscripción de pago o gratuita a Gemini?

1 me gusta

Hay diferentes modelos de Gemini, como los que has señalado. Dependiendo de cuál tengas (probablemente pro, ya que es gratuito ahora mismo), simplemente conectarías la clave API en la configuración correspondiente. La configuración es para el modelo de Gemini que tengas.

Esto dependería de ti y de cómo quieras usar Gemini, pero cualquiera de las dos debería funcionar.

Más información aquí:

1 me gusta

¿Hay alguna forma de inyectar algo en el prompt inicial al LLM o manipular los embeddings antes de que se pasen a la búsqueda normal?

Estoy intentando potenciar (o posiblemente separar) las respuestas del personal (más autorizadas) de las respuestas de la comunidad.

2 Me gusta

Actualmente, no admitimos ninguna inyección de indicaciones personalizadas de LLM dentro de Búsqueda de IA, aunque esto podría ser algo para agregar en el futuro.

¡Recomendaría hacer una solicitud de #característica!

2 Me gusta

Recién estoy empezando a usar la búsqueda de IA y me está gustando. No encuentro ninguna razón para no usarla siempre. ¿Hay alguna forma de mostrar solo los resultados de IA (aparte de usar CSS para ocultar .fps-result pero no .ai-result)?

Además, ¿podrías explicar dónde encontrar la búsqueda rápida?

1 me gusta

Oye, eso estuvo disponible temporalmente exclusivamente en Meta como un experimento. Lo he eliminado del OP, gracias por señalarlo.

Estamos usando Discourse Algolia Search para la búsqueda de autocompletado en la cabecera. ¿Podemos continuar usando Discourse AI - Búsqueda con IA?

Se dividió una publicación en un nuevo tema: No veo el panel de preferencias del usuario para Discourse AI