Você pode explicar melhor o que quer dizer com latência aqui?
Para Tópicos Relacionados, como todos os embeddings são pré-calculados, não há custo adicional de tempo de execução. Pelo contrário, a consulta SQL para encontrar tópicos relacionados é mais rápida do que nossa antiga consulta de tópicos sugeridos, e nós armazenamos em cache os tópicos relacionados para um desempenho ainda mais rápido.
Quanto à Pesquisa de IA, nossa abordagem atual HyDE[1] para ela incorre em latência séria, e é por isso que ela acontece de forma assíncrona e o usuário é apresentado primeiro à pesquisa padrão e à opção de aumentá-la com resultados de IA quando estes estiverem prontos. Aqui no Meta, os resultados da pesquisa de IA estão prontos 4 segundos após os resultados da pesquisa normal, em média.
GPT-4: HyDE significa Hypothetical Document Embeddings, uma técnica usada em pesquisa semântica para encontrar documentos com base em similaridades em seu conteúdo. Essa abordagem permite resultados de pesquisa mais precisos e contextualmente relevantes, avaliando as similaridades conceituais entre os documentos, em vez de depender apenas da correspondência de palavras-chave. Representa uma técnica de aprendizado zero-shot que combina as capacidades de compreensão de linguagem do GPT-3 com codificadores de texto contrastivos, aprimorando a capacidade da IA de compreender e processar dados de linguagem natural de forma mais sutil e eficaz. ↩︎