Die Tokenlänge Ihres obigen Beitrags gemäß einigen Tokenizern:
OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49
Es sieht so aus, als ob Mistral-embed sich nicht wesentlich von den anderen unterscheidet. Und da es ein sehr großes Kontextfenster von 8.000 unterstützt, sollten Sie auf der sicheren Seite sein, wenn Sie eines auswählen und durch Begrenzung des Kontextfensters in Discourse auf 7 oder 7,5k etwas Spielraum lassen.