Como implementar Mistral com Embeddings

Tenho tido dificuldades para configurar Embeddings com a Mistral AI, suspeito que seja porque a Mistral requer que um modelo seja passado. Você sabe se isso é possível (e, em caso afirmativo, como), ou o que deve ser feito para torná-lo possível?

2 curtidas

Tente definir mistral-embed no campo “Nome do modelo”, que aparece após selecionar “Provedor” como OpenAI.

2 curtidas

Obrigado, isso funciona :+1:

Estou com dificuldades para descobrir qual seria o melhor tokenizador a usar para este caso de uso. O tokenizador Mixtral não pode ser selecionado aqui. Você tem alguma sugestão?

O comprimento do seu post acima em tokens, de acordo com alguns tokenizadores:

OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49

Parece que Mistral-embed não difere muito dos outros. E como ele suporta uma janela de contexto muito grande de 8k, você deve ficar seguro escolhendo qualquer um e deixando um espaço de sobra limitando a janela de contexto no Discourse para 7 ou 7,5k.

1 curtida

Parece que o mistral-embed usa o mesmo tokenizador do primeiro modelo Mixtral, e nós já o disponibilizamos de qualquer forma, então o que você acha de ativar esse tokenizador na página de configuração de embeddings @Roman_Rizzi ?

2 curtidas

Claro. Não vejo por que não, se já está lá. Esta alteração adicionará às opções disponíveis:

3 curtidas

Este tópico foi fechado automaticamente 30 dias após a última resposta. Novas respostas não são mais permitidas.