在没有 GPU 的服务器上运行 https://hf.co/Qwen/Qwen3-Embedding-0.6B 和 GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models 应该在 2-4GB RAM 的服务器上是完全可行的。
3 个赞
在没有 GPU 的服务器上运行 https://hf.co/Qwen/Qwen3-Embedding-0.6B 和 GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models 应该在 2-4GB RAM 的服务器上是完全可行的。