He estado luchando para configurar Embeddings con Mistral AI, sospecho que es porque Mistral requiere que se pase un modelo. ¿Sabes si esto es posible (y si es así, cómo), o qué se debería hacer para que sea posible?
Intenta configurar mistral-embed en el campo “Nombre del modelo”, que aparece después de seleccionar “Proveedor” como OpenAI.
Gracias, eso funciona ![]()
Sin embargo, me cuesta averiguar qué tokenizador sería el mejor para este caso de uso. El tokenizador de Mixtral no se puede seleccionar aquí. ¿Tienes alguna sugerencia?
La longitud de su publicación anterior en tokens según algunos tokenizadores:
OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49
Parece que Mistral-embed no difiere mucho de los demás. Y dado que admite una ventana de contexto muy grande de 8k, debería estar seguro de elegir cualquiera y dejar algo de margen limitando la ventana de contexto en Discourse a 7 o 7.5k.
Parece que mistral-embed utiliza el mismo tokenizador que el primer modelo Mixtral, y ya lo enviamos de todas formas, así que ¿qué te parece habilitar ese tokenizador en la página de configuración de embeddings @Roman_Rizzi?
Claro. No veo por qué no, si ya está ahí. Este cambio lo añadirá a las opciones disponibles:
Este tema se cerró automáticamente 30 días después de la última respuesta. Ya no se permiten nuevas respuestas.