Ho avuto difficoltà a configurare Embeddings con Mistral AI, sospetto perché Mistral richiede il passaggio di un modello. Sai se questo è possibile (e in tal caso, come), o cosa si dovrebbe fare per renderlo possibile?
Prova a impostare mistral-embed nel campo “Nome del modello”, che appare dopo aver selezionato “Provider” come OpenAI.
Grazie, funziona ![]()
Sto lottando per capire quale sia il miglior tokenizer da usare per questo caso d’uso. Il tokenizer Mixtral non è selezionabile qui. Hai qualche suggerimento?
La lunghezza del tuo post sopra secondo alcuni tokenizer:
OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49
Sembra che Mistral-embed non differisca molto dagli altri. E poiché supporta una finestra di contesto molto ampia di 8k, dovresti sentirti sicuro scegliendo uno qualsiasi e lasciando un po’ di margine limitando la finestra di contesto in Discourse a 7 o 7,5k.
Sembra che mistral-embed utilizzi lo stesso tokenizer del primo modello Mixtral, e lo forniamo comunque già, quindi cosa ne pensi di abilitare quel tokenizer nella pagina di configurazione degli embedding @Roman_Rizzi ?
Certo. Non vedo perché no, se è già lì. Questa modifica lo aggiungerà alle opzioni disponibili:
Questo argomento è stato chiuso automaticamente 30 giorni dopo l’ultima risposta. Non sono più consentite nuove risposte.