Come implementare Mistral con gli Embeddings

Ho avuto difficoltà a configurare Embeddings con Mistral AI, sospetto perché Mistral richiede il passaggio di un modello. Sai se questo è possibile (e in tal caso, come), o cosa si dovrebbe fare per renderlo possibile?

2 Mi Piace

Prova a impostare mistral-embed nel campo “Nome del modello”, che appare dopo aver selezionato “Provider” come OpenAI.

2 Mi Piace

Grazie, funziona :+1:

Sto lottando per capire quale sia il miglior tokenizer da usare per questo caso d’uso. Il tokenizer Mixtral non è selezionabile qui. Hai qualche suggerimento?

La lunghezza del tuo post sopra secondo alcuni tokenizer:

OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49

Sembra che Mistral-embed non differisca molto dagli altri. E poiché supporta una finestra di contesto molto ampia di 8k, dovresti sentirti sicuro scegliendo uno qualsiasi e lasciando un po’ di margine limitando la finestra di contesto in Discourse a 7 o 7,5k.

1 Mi Piace

Sembra che mistral-embed utilizzi lo stesso tokenizer del primo modello Mixtral, e lo forniamo comunque già, quindi cosa ne pensi di abilitare quel tokenizer nella pagina di configurazione degli embedding @Roman_Rizzi ?

2 Mi Piace

Certo. Non vedo perché no, se è già lì. Questa modifica lo aggiungerà alle opzioni disponibili:

3 Mi Piace

Questo argomento è stato chiuso automaticamente 30 giorni dopo l’ultima risposta. Non sono più consentite nuove risposte.