Wie man Mistral mit Embeddings implementiert

Ich habe Schwierigkeiten, Embeddings mit Mistral AI einzurichten, ich vermute, weil Mistral ein Modell erfordert, das übergeben wird. Wissen Sie, ob dies möglich ist (und wenn ja, wie) oder was getan werden muss, um es zu ermöglichen?

2 „Gefällt mir“

Versuchen Sie, mistral-embed im Feld „Modellname“ festzulegen. Dieses Feld erscheint, nachdem Sie „Anbieter“ als OpenAI ausgewählt haben.

2 „Gefällt mir“

Danke, das funktioniert :+1:

Ich habe Schwierigkeiten herauszufinden, welcher der beste Tokenizer für diesen Anwendungsfall wäre. Der Mixtral-Tokenizer ist hier nicht auswählbar. Haben Sie Vorschläge?

Die Tokenlänge Ihres obigen Beitrags gemäß einigen Tokenizern:

OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49

Es sieht so aus, als ob Mistral-embed sich nicht wesentlich von den anderen unterscheidet. Und da es ein sehr großes Kontextfenster von 8.000 unterstützt, sollten Sie auf der sicheren Seite sein, wenn Sie eines auswählen und durch Begrenzung des Kontextfensters in Discourse auf 7 oder 7,5k etwas Spielraum lassen.

1 „Gefällt mir“

Sieht so aus, als würde mistral-embed denselben Tokenizer wie das erste Mixtral-Modell verwenden, und wir liefern diesen sowieso bereits aus, also was hältst du davon, diesen Tokenizer auf der Konfigurationsseite für Einbettungen zu aktivieren @Roman_Rizzi?

2 „Gefällt mir“

Sicher. Ich sehe keinen Grund, warum nicht, wenn es bereits vorhanden ist. Diese Änderung fügt es zu den verfügbaren Optionen hinzu:

3 „Gefällt mir“

Dieses Thema wurde 30 Tage nach der letzten Antwort automatisch geschlossen. Neue Antworten sind nicht mehr möglich.