Können Sie näher erläutern, was Sie hier unter Latenz verstehen?
Für verwandte Themen gibt es keine zusätzlichen Laufzeitkosten, da alle Einbettungen vorab berechnet werden. Ganz im Gegenteil, die Abfrage von verwandten Themen ist schneller als unsere alte Abfrage für vorgeschlagene Themen, und wir cachen verwandte Themen für eine noch schnellere Leistung.
Was die KI-Suche betrifft, so verursacht unser aktueller HyDE[1]-Ansatz erhebliche Latenzzeiten, weshalb sie asynchron erfolgt und dem Benutzer zuerst die Standard-Suche mit der Option angezeigt wird, diese mit KI-Ergebnissen zu ergänzen, wenn diese verfügbar sind. Hier auf Meta sind die KI-Suchergebnisse im Durchschnitt 4 Sekunden nach den normalen Suchergebnissen verfügbar.
GPT-4: HyDE steht für Hypothetical Document Embeddings, eine Technik, die bei der semantischen Suche verwendet wird, um Dokumente anhand von Ähnlichkeiten in ihrem Inhalt zu finden. Dieser Ansatz ermöglicht präzisere und kontextbezogenere Suchergebnisse, indem die konzeptionellen Ähnlichkeiten zwischen Dokumenten bewertet werden, anstatt sich ausschließlich auf den Abgleich von Schlüsselwörtern zu verlassen. Er stellt eine Zero-Shot-Learning-Technik dar, die die Sprachverständnisfähigkeiten von GPT-3 mit kontrastiven Textkodierern kombiniert und so die Fähigkeit der KI verbessert, natürliche Sprachdaten nuancierter und effektiver zu verstehen und zu verarbeiten. ↩︎