Nous sommes ravis d’annoncer que nos clients hébergés peuvent désormais alimenter chaque fonctionnalité d’IA de Discourse en utilisant notre propre LLM[1] auto-hébergé à poids ouverts, préconfiguré et inclus gratuitement avec votre service d’hébergement.
Cela signifie que chaque fonctionnalité d’IA est disponible pour les clients Starter, Pro, Business et Enterprise sans avoir besoin d’un fournisseur de LLM tiers.
Activation du LLM auto-hébergé
Ceci devrait déjà être disponible et activé sur votre site sous la page de configuration du LLM :
Admin → Plugins → Discourse AI → LLMs
Par défaut, « CDCK Hosted Small LLM » sera sélectionné comme votre LLM par défaut, et il devrait également être disponible à la sélection par n’importe quel persona sur votre site.
Utilisation et limites
Discourse mesure l’utilisation du LLM auto-hébergé via un système de crédits. Chaque jeton de requête ou de réponse consomme 1 crédit. Les crédits sont proportionnels à votre niveau d’hébergement et sont réinitialisés quotidiennement.
✱ Certaines fonctionnalités telles que la détection de spam par IA ne seront pas comptabilisées dans vos crédits
Les limites de crédits par niveau peuvent être trouvées sur la page des tarifs de notre site web. Une fois votre limite quotidienne atteinte, toutes les fonctionnalités d’IA qui dépendent du LLM seront mises en pause jusqu’à ce que les crédits soient réinitialisés le lendemain.
Si vous manquez rapidement de crédits, envisagez d’utiliser le système de quota LLM pour définir des restrictions par utilisateur ou par groupe. La mise à niveau vers un niveau supérieur est une autre option si vous avez besoin de capacité supplémentaire.
Vous pouvez consulter l’utilisation de l’IA de votre site à tout moment depuis la page d’utilisation de l’IA dans le panneau d’administration.
Pour plus de détails sur ce qu’il faut faire lorsque les crédits sont épuisés, consultez :
Large Language Model ↩︎
