Ti raccomando vivamente di aspettare un paio di settimane finché non spediremo il supporto per gli embedding configurabili.
Questo dovrebbe funzionare bene quando spediremo gli embedding configurabili, ma per curiosità cosa porterebbe rispetto a GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models?