Recomiendo encarecidamente esperar un par de semanas hasta que enviemos la compatibilidad con embeddings configurables.
Esto debería funcionar bien cuando enviemos los embeddings configurables, pero por curiosidad, ¿qué aportaría sobre GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models?