Gli argomenti correlati e la ricerca AI non utilizzano un LLM.
È una richiesta per argomento per gli embedding di massa, quindi la maggior parte dei siti dovrebbe essere in grado di farlo utilizzando qualcosa come il livello gratuito di Gemini.
La ricerca è una richiesta per ricerca, e che molto probabilmente può rientrare nel livello gratuito.
Poiché questo è solo un modello di embedding, dovresti essere in grado di eseguire l’host di Qwen/Qwen3-Embedding-0.6B · Hugging Face utilizzando GitHub - huggingface/text-embeddings-inference: A blazing fast inference solution for text embeddings models su un sistema base con 2 vCPU / 4 GB di RAM senza problemi.
È più veloce su un server con GPU, ovviamente, ma funziona benissimo anche senza.