Como implementar Mistral com Embeddings

O comprimento do seu post acima em tokens, de acordo com alguns tokenizadores:

OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49

Parece que Mistral-embed não difere muito dos outros. E como ele suporta uma janela de contexto muito grande de 8k, você deve ficar seguro escolhendo qualquer um e deixando um espaço de sobra limitando a janela de contexto no Discourse para 7 ou 7,5k.

1 curtida