Falco
(Falco)
1. Oktober 2024 um 16:16
32
Ja.
Ja, jedes Modell erzeugt unterschiedliche Vektorrepräsentationen.
Es ist im Grunde ein Aufruf pro Thema, daher sehr einfach zu berechnen.
Wenn die meisten Ihrer Themen lang sind, werden sie auf 8k Tokens gekürzt, andernfalls werden sie Ihre Themenlänge verwenden.
Ja.
Overgrow:
Ich gehe davon aus, dass für sowohl verwandte Themen als auch für KI-gestützte Suche alle Beiträge nur einmal vektorisiert werden müssen, sodass ich die Gesamtzahl der Wörter in der Beitragstabelle berechnen und die benötigte Anzahl von Tokens ableiten kann. Der gleiche Prozess würde für die tägliche Hinzufügung von Beiträgen gelten. Ich vernachlässige vorerst die Suchanfragen.
Beides funktioniert auf Topic-Ebene, also eins pro Topic.
2 „Gefällt mir“
falco:
Ich habe diese unbeabsichtigt weggelassen, da die Rake-Aufgabe in Ungnade gefallen ist und nur in seltenen Fällen von erfahrenen Betreibern verwendet werden sollte, die diese problemlos Out-of-Band installieren können.
Darf ich wissen, wie ich die Gems richtig hinzufüge, ohne das Plugin mit dem vorgeschlagenen PR zu forken?
Ich probiere die Scale-to-Zero-Funktion auf HuggingFace aus und muss nur die Rake-Aufgabe für Backfill-Embeddings verwenden.
jlcoo
(Jiang Long)
7. Juli 2025 um 08:33
40
Warum wird der Fehlercode 418 zurückgegeben, wenn ich die vollständige Suche von Discourse AI Embeddings in DiscourseAi::Embeddings::EmbeddingsController#search als JSON verwende? Können Sie mir helfen?
Falco
(Falco)
Hat dieses Thema aufgeteilt,
14. Oktober 2025 um 19:55
41
Falco
(Falco)
Hat dieses Thema aufgeteilt,
15. Oktober 2025 um 15:36
42
2 Beiträge wurden in ein neues Thema aufgeteilt: Gemini API Embedding Configuration Clarification