Differenze nella latenza di ricerca tra ricerca semantica AI e ricerca per parole chiave

Puoi spiegare meglio cosa intendi per latenza qui?

Per gli argomenti correlati, poiché ogni embedding è pre-calcolato, non ci sono costi aggiuntivi di runtime. Al contrario, la query SQL per trovare argomenti correlati è più veloce della nostra vecchia query per argomenti suggeriti, e memorizziamo nella cache gli argomenti correlati per prestazioni ancora migliori.

Per quanto riguarda la ricerca AI, il nostro attuale approccio HyDE[1] comporta una latenza significativa, motivo per cui avviene in modo asincrono e all’utente vengono presentati prima i risultati della ricerca standard con l’opzione di integrarli con i risultati AI quando questi sono pronti. Qui su Meta i risultati della ricerca AI sono pronti in media 4 secondi dopo i risultati della ricerca normale.


  1. GPT-4: HyDE sta per Hypothetical Document Embeddings, una tecnica utilizzata nella ricerca semantica per trovare documenti in base alle somiglianze nel loro contenuto. Questo approccio consente risultati di ricerca più precisi e contestualmente pertinenti valutando le somiglianze concettuali tra i documenti, piuttosto che basarsi esclusivamente sulla corrispondenza delle parole chiave. Rappresenta una tecnica di apprendimento zero-shot che combina le capacità di comprensione del linguaggio di GPT-3 con encoder di testo contrastivi, migliorando la capacità dell’AI di comprendere ed elaborare dati in linguaggio naturale in modo più sfumato ed efficace. ↩︎

3 Mi Piace