La búsqueda semántica funciona muy bien y ofrece mejores resultados que la búsqueda normal. Podemos usar este sistema de búsqueda en todo el sitio, pero no viene por defecto. Debe seleccionarse al buscar.
Estamos renovando el funcionamiento de la Búsqueda Semántica, y mostrará sus resultados junto con los resultados de búsqueda predeterminados, lo que debería cubrir sus necesidades. Debería estar disponible en un par de semanas.
Acabamos de lanzar la búsqueda semántica integrada en la búsqueda normal en Discourse AI. Ahora utiliza HyDE para lograr mejores resultados, así que dime qué tal te va. Un gran cambio es que debes tener configurado tanto el módulo de embeddings como un servicio LLM (ya sea OpenAI, Anthropic o Llama2).
Habiendo jugado un poco con él, algunas observaciones:
Los resultados son diferentes a la búsqueda normal. No siempre mejores porque a veces una búsqueda por palabra clave/relevancia realmente parece obtener el mejor resultado cuando sabes las palabras clave para buscar, pero…
Devuelve un conjunto más amplio de resultados y estos a veces son realmente útiles.
Actualmente es muy lento para mí. Me doy cuenta de que esto es algo inevitable porque hay un paso de generación de LLM antes de la recuperación, así que no estoy seguro de que esto se pueda arreglar, pero vale la pena saberlo. Parece más lento que una llamada corta a gpt-3.5…
Algunos puntos de la interfaz de usuario:
No siempre es obvio en los resultados devueltos qué parte es relevante. En una aplicación en la que estoy trabajando, divido los documentos en fragmentos bastante pequeños antes de crear incrustaciones (frases/párrafos) y esto significa que al buscar/recuperar es posible colorear cada frase según la similitud semántica. Esto sería un poco como resaltar las palabras clave de la búsqueda, pero parecería un mapa de calor con las partes semánticamente similares coloreadas en caliente y las disimilares en frío.
Es molesto tener que hacer clic para expandir los resultados semánticos.
¿Han pensado en formas de combinar resultados de palabras clave y semánticos? ¿Sería posible elegir la ‘similitud’ o la ‘relevancia’ como orden de clasificación para el conjunto de resultados? De esa manera, si eligieras ‘similitud’, podrías comenzar presentando resultados basados en palabras clave e insertar documentos recuperados por hyde en la lista a medida que llegan.
Sería realmente interesante (al menos para mí) poder ver el documento hipotético utilizado para hacer la coincidencia de similitud. Puedo imaginar que a veces querría editar este documento… y debido a que la similitud del coseno es relativamente barata (en comparación con la llamada de generación de LLM), todavía sería bastante rápido en la interfaz de usuario actualizar los resultados a medida que el usuario actualiza su consulta/documento hipotético.
En general, ¡esto es realmente genial, gracias! Será genial cuando esto se implemente de manera que el chatbot pueda usar los resultados.
Logramos que pasara de 45s a 7s solo esta semana con algunas optimizaciones inteligentes, y lo estamos usando para poblar una caché, por lo que las búsquedas recurrentes son instantáneas.
En este momento hacemos una sola incrustación por tema. Planeamos hacer incrustaciones por publicación, y eso hará que esta búsqueda sea aún mejor en el futuro.
La interfaz de usuario actual es temporal y no fue hecha por nuestro equipo de diseño. Nuestro objetivo era implementarla y dejar que nuestra comunidad jugara con ella para recopilar comentarios sobre los aspectos funcionales de la característica. Una interfaz adecuada seguirá en breve.
Eso haría que los resultados se movieran mientras los escaneas, lo cual es un gran no-no en UX. Nuestro objetivo principal es encontrar una manera de presentar ambos de una manera que sean útiles y mejoren la experiencia de búsqueda sin ser molestos.
Sí, por eso trasladamos que ambos sucedan en la misma pantalla y con una sola entrada de lo que teníamos antes. La integración adicional de ambos depende del paradigma de interfaz de usuario que elijamos para esta pantalla.
En tu propia instancia puedes consultar los ai_api_audit_logs para esto. Por ejemplo, una búsqueda de Discourse app freezing on iOS aquí anteriormente resultó en la siguiente publicación hipotética:
Asunto: La aplicación Discourse se congela en iOS
Hola a todos, he estado usando la aplicación Discourse en mi iPhone durante unos meses y últimamente se me congela bastante. La aplicación simplemente se bloquea y se vuelve irresponsable, generalmente cuando intento cargar nuevas publicaciones o navegar entre categorías. Parece suceder con más frecuencia cuando tengo varios temas abiertos a la vez y cambio entre ellos. Los indicadores de carga giran indefinidamente y tocar los botones no hace nada. Eventualmente se recarga, pero se está volviendo bastante molesto. Estoy ejecutando la última versión de iOS 13.3 en un iPhone 8 Plus. ¿Alguien más ha visto este problema últimamente? Los foros en sí se cargan bien en un navegador móvil, es solo la aplicación dedicada la que está actuando de manera extraña. He intentado cerrarla a la fuerza y volver a abrirla un par de veces, pero eso no parece solucionarlo. ¿Alguna sugerencia de otros usuarios de Discourse móvil sobre cómo resolver estos problemas de congelación? Odiaría tener que dejar de usar la aplicación si continúa bloqueándose. ¡Gracias de antemano por cualquier ayuda o consejo!
Desde que hicimos algunos ajustes en el prompt, estoy increíblemente sorprendido con los resultados.
Esa es una propuesta interesante, pero es bastante complicado explicar este flujo para el usuario promedio. Dicho esto, me gusta mucho lo que hizo Shopify para su interfaz de administración, donde permiten anular algunas recomendaciones de productos sugeridas por IA. Eventualmente podríamos hacer lo mismo aquí.
Ese ya es el caso desde hace 2 días. El Bot de IA obtiene 1/4 de sus resultados de búsqueda internos utilizando esta técnica.