Falco
(Falco)
1 Octubre, 2024 16:16
32
Sí.
Sí, cada modelo produce representaciones vectoriales diferentes.
Básicamente, es una llamada por tema, por lo que es muy fácil de calcular.
Si la mayoría de tus temas son largos, se truncarán a 8k tokens, de lo contrario, usarán la longitud de tu tema.
Sí.
Overgrow:
Supongo que tanto para temas relacionados como para la búsqueda impulsada por IA, todas las publicaciones deben vectorizarse solo una vez, por lo que puedo calcular el número total de palabras en la tabla de publicaciones y derivar el número de tokens necesarios. El mismo proceso se aplicaría a la adición diaria de publicaciones. Estoy descuidando las frases de búsqueda por ahora.
Ambos funcionan a nivel de tema, por lo que uno por tema.
2 Me gusta
¿Puedo saber cómo agregar correctamente las gemas sin bifurcar el plugin con la PR sugerida?
Estoy probando la función de escalado a cero en HuggingFace y solo necesito usar la tarea de rake para rellenar las incrustaciones.
jlcoo
(Jiang Long)
7 Julio, 2025 08:33
40
¿Por qué devuelve el código de error 418 cuando uso la búsqueda completa de incrustaciones de Discourse AI en DiscourseAi::Embeddings::EmbeddingsController#search como JSON? ¿Podrías ayudarme?
Falco
(Falco)
Separó este tema
14 Octubre, 2025 19:55
41
Falco
(Falco)
Separó este tema
15 Octubre, 2025 15:36
42
2 publicaciones se dividieron en un nuevo tema: Gemini API Embedding Configuration Clarification