Esiste un benchmark di costo, un metro di paragone o una formula di stima che mi aiuti a comprendere il costo una tantum (mass embedding) e quello continuativo (embedding e ricerca) per abilitare Discourse AI utilizzando un LLM basato su cloud?
Per un LLM self-hosted, quale sarebbe una tipica configurazione/costo del server richiesto?
Gli argomenti correlati e la ricerca AI non utilizzano un LLM.
È una richiesta per argomento per gli embedding di massa, quindi la maggior parte dei siti dovrebbe essere in grado di farlo utilizzando qualcosa come il livello gratuito di Gemini.
La ricerca è una richiesta per ricerca, e che molto probabilmente può rientrare nel livello gratuito.