Ich empfehle wirklich, ein paar Wochen zu warten, bis wir die Unterstützung für konfigurierbare Embeddings ausliefern.
Das sollte funktionieren, wenn wir konfigurierbare Embeddings ausliefern, aber aus Neugier, was würde das gegenüber GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models bringen?