Différences de latence de recherche entre la recherche sémantique IA et la recherche par mots-clés

Pouvez-vous préciser ce que vous entendez par latence ici ?

Pour les sujets connexes, étant donné que chaque embedding est pré-calculé, il n’y a pas de coût d’exécution supplémentaire. Au contraire, la requête SQL pour trouver des sujets connexes est plus rapide que notre ancienne requête de sujets suggérés, et nous mettons en cache les sujets connexes pour des performances encore plus rapides.

En ce qui concerne la recherche IA, notre approche actuelle HyDE[^1] entraîne une latence importante, c’est pourquoi elle s’exécute de manière asynchrone et que l’utilisateur voit d’abord la recherche standard avec la possibilité de l’augmenter avec les résultats de l’IA lorsqu’ils sont prêts. Ici sur Meta, les résultats de la recherche IA sont prêts 4 secondes après les résultats de la recherche normale, en moyenne.

[^1] : GPT-4 : HyDE signifie Hypothetical Document Embeddings, une technique utilisée dans la recherche sémantique pour trouver des documents en fonction des similitudes de leur contenu. Cette approche permet d’obtenir des résultats de recherche plus précis et contextuellement pertinents en évaluant les similitudes conceptuelles entre les documents, plutôt qu’en se basant uniquement sur la correspondance des mots-clés. Elle représente une technique d’apprentissage zero-shot qui combine les capacités de compréhension du langage de GPT-3 avec des encodeurs de texte contrastifs, améliorant ainsi la capacité de l’IA à comprendre et à traiter les données en langage naturel de manière plus nuancée et efficace.

3 « J'aime »