¿Existe algún punto de referencia de costos, lista de verificación o fórmula de estimación que me ayude a comprender el costo único (incrustación masiva) y continuo (incrustación y búsqueda) de habilitar Discourse AI utilizando un LLM basado en la nube?
Para un LLM autoalojado, ¿cuál sería una configuración/costo de servidor típico requerido?
Temas relacionados y búsqueda de IA no usan un LLM.
Es una solicitud por tema para incrustaciones masivas, por lo que la mayoría de los sitios podrán hacerlo utilizando algo como el nivel gratuito de Gemini.
La búsqueda es una solicitud por búsqueda, y es muy probable que quepa en el nivel gratuito.