Falco
(Falco)
1 Ottobre 2024, 4:16pm
32
Sì.
Sì, ogni modello produce rappresentazioni vettoriali diverse.
È fondamentalmente una chiamata per argomento, quindi molto facile da calcolare.
Se la maggior parte dei tuoi argomenti sono lunghi, verranno troncati a 8k token, altrimenti utilizzeranno la lunghezza del tuo argomento.
Sì.
Overgrow:
Presumo che sia per gli argomenti correlati che per la ricerca basata sull’IA, tutti i post debbano essere vettorializzati solo una volta, quindi posso calcolare il numero totale di parole nella tabella dei post e derivare il numero di token necessari. Lo stesso processo si applicherebbe all’aggiunta giornaliera di post. Per ora sto trascurando le frasi di ricerca.
Entrambi funzionano a livello di argomento, quindi uno per argomento.
2 Mi Piace
Posso sapere come aggiungere correttamente le gem senza fare un fork del plugin con la PR suggerita?
Sto provando la funzionalità scale-to-zero su HuggingFace e ho solo bisogno di usare il rake task per il backfill degli embeddings.
jlcoo
(Jiang Long)
7 Luglio 2025, 8:33am
40
perché restituisce il codice di errore 418 quando utilizzo la ricerca completa di discourse ai embeddings in DiscourseAi::Embeddings::EmbeddingsController#search come JSON? Potresti aiutarmi?
Falco
(Falco)
Ha separato questo argomento il
14 Ottobre 2025, 7:55pm
41
Falco
(Falco)
Ha separato questo argomento il
15 Ottobre 2025, 3:36pm
42
2 post sono stati divisi in un nuovo argomento: Gemini API Embedding Configuration Clarification