لقد كنت أواجه صعوبة في إعداد Embeddings مع Mistral AI، وأعتقد أن السبب هو أن Mistral يتطلب تمرير نموذج. هل تعرف ما إذا كان هذا ممكنًا (وإذا كان الأمر كذلك، فكيف)، أو ما الذي يجب فعله لجعله ممكنًا؟
جرب تعيين mistral-embed في حقل “اسم النموذج”، الذي يظهر بعد تحديد “الموفر” كـ OpenAI.
شكراً، هذا يعمل ![]()
أنا أواجه صعوبة في معرفة أفضل مُرمّز (tokenizer) لاستخدامه لهذه الحالة. مُرمّز Mixtral غير قابل للتحديد هنا. هل لديك أي اقتراحات؟
طول مشاركتك أعلاه بالرموز وفقًا لبعض المحللات:
OpenAI: 45
Mixtral: 52
Gemini: 47
E5: 50
bge-large-en: 49
bge-m3: 50
mpnet: 49
يبدو أن Mistral-embed لا يختلف كثيرًا عن الآخرين. وبما أنه يدعم نافذة سياق كبيرة جدًا تبلغ 8 آلاف، فيجب أن تكون آمنًا في اختيار أي منها وترك بعض المساحة عن طريق تحديد نافذة السياق في Discourse إلى 7 أو 7.5 آلاف.
يبدو أن mistral-embed يستخدم نفس المحول النصي (tokenizer) كما في النموذج Mixtral الأول، ونحن بالفعل نشحنه على أي حال، فماذا تعتقد بخصوص تفعيل ذلك المحول النصي في صفحة إعدادات التضمينات @Roman_Rizzi ؟
بالتأكيد. لا أرى سببًا لعدم القيام بذلك إذا كان موجودًا بالفعل. سيضيف هذا التغيير خيارًا إلى الخيارات المتاحة:
تم إغلاق هذا الموضوع تلقائيًا بعد 30 يومًا من آخر رد. لم تعد الردود الجديدة مسموح بها.