Cómo implementar Mistral con Embeddings

La longitud de su publicación anterior en tokens según algunos tokenizadores:

OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49

Parece que Mistral-embed no difiere mucho de los demás. Y dado que admite una ventana de contexto muy grande de 8k, debería estar seguro de elegir cualquiera y dejar algo de margen limitando la ventana de contexto en Discourse a 7 o 7.5k.

1 me gusta