Puoi spiegare meglio cosa intendi per latenza qui?
Per gli argomenti correlati, poiché ogni embedding è pre-calcolato, non ci sono costi aggiuntivi di runtime. Al contrario, la query SQL per trovare argomenti correlati è più veloce della nostra vecchia query per argomenti suggeriti, e memorizziamo nella cache gli argomenti correlati per prestazioni ancora migliori.
Per quanto riguarda la ricerca AI, il nostro attuale approccio HyDE[1] comporta una latenza significativa, motivo per cui avviene in modo asincrono e all’utente vengono presentati prima i risultati della ricerca standard con l’opzione di integrarli con i risultati AI quando questi sono pronti. Qui su Meta i risultati della ricerca AI sono pronti in media 4 secondi dopo i risultati della ricerca normale.
GPT-4: HyDE sta per Hypothetical Document Embeddings, una tecnica utilizzata nella ricerca semantica per trovare documenti in base alle somiglianze nel loro contenuto. Questo approccio consente risultati di ricerca più precisi e contestualmente pertinenti valutando le somiglianze concettuali tra i documenti, piuttosto che basarsi esclusivamente sulla corrispondenza delle parole chiave. Rappresenta una tecnica di apprendimento zero-shot che combina le capacità di comprensione del linguaggio di GPT-3 con encoder di testo contrastivi, migliorando la capacità dell’AI di comprendere ed elaborare dati in linguaggio naturale in modo più sfumato ed efficace. ↩︎