Existe-t-il une référence de coût, une mesure ou une formule d’estimation qui m’aiderait à comprendre le coût unique (intégration de masse) et le coût récurrent (intégration et recherche) de l’activation de Discourse AI à l’aide d’un LLM basé sur le cloud ?
Pour un LLM auto-hébergé, quelle serait une configuration/un coût de serveur typique requis ?
Les sujets connexes et la recherche IA n’utilisent pas de LLM.
C’est une requête par sujet pour l’intégration de masse, donc la plupart des sites devraient pouvoir le faire en utilisant quelque chose comme le niveau gratuit de Gemini.
La recherche est une requête par recherche, et qui peut très probablement s’intégrer dans le niveau gratuit.