Comment mettre en œuvre Mistral avec des Embeddings

La longueur de votre publication ci-dessus en tokens, selon certains tokeniseurs :

OpenAI : 45
Mixtral : 52
Gemini : 47
E5 : 50
bge-large-en : 49
bge-m3 : 50
mpnet : 49

Il semble que Mistral-embed ne diffère pas beaucoup des autres. Et comme il prend en charge une très grande fenêtre de contexte de 8k, vous devriez être tranquille en choisissant n’importe lequel et en laissant un peu de marge en limitant la fenêtre de contexte dans Discourse à 7 ou 7,5k.

1 « J'aime »