¿Puedes explicar a qué te refieres con latencia aquí?
Para Temas Relacionados, dado que cada embedding se precalcula, no hay costo adicional en tiempo de ejecución. Muy al contrario, la consulta SQL para encontrar temas relacionados es más rápida que nuestra antigua consulta de temas sugeridos, y almacenamos en caché los temas relacionados para un rendimiento aún mayor.
En cuanto a Búsqueda de IA, nuestro enfoque actual HyDE[1] incurre en una latencia seria, por lo que ocurre de forma asíncrona y al usuario se le presenta primero la búsqueda estándar y la opción de aumentarla con resultados de IA cuando estos estén listos. Aquí en Meta, los resultados de la búsqueda de IA están listos 4 segundos después de los resultados de la búsqueda normal, en promedio.
GPT-4: HyDE significa Hypothetical Document Embeddings (Embeddings de Documentos Hipotéticos), una técnica utilizada en la búsqueda semántica para encontrar documentos basándose en las similitudes de su contenido. Este enfoque permite obtener resultados de búsqueda más precisos y contextuales al evaluar las similitudes conceptuales entre documentos, en lugar de depender únicamente de la coincidencia de palabras clave. Representa una técnica de aprendizaje zero-shot que combina las capacidades de comprensión del lenguaje de GPT-3 con codificadores de texto contrastivos, mejorando la capacidad de la IA para comprender y procesar datos del lenguaje natural de una manera más matizada y efectiva. ↩︎