je suis sûr que Qwen/Qwen3-Embedding-0.6B prend en charge jusqu’à 32k tokens
et j’ai configuré une longueur de séquence de 32k
mais il y a toujours beaucoup d’erreurs d’embedding
je suis sûr que Qwen/Qwen3-Embedding-0.6B prend en charge jusqu’à 32k tokens
et j’ai configuré une longueur de séquence de 32k
mais il y a toujours beaucoup d’erreurs d’embedding