Débloquez toutes les fonctionnalités de Discourse AI avec notre LLM hébergé

Nous sommes ravis d’annoncer que nos clients hébergés peuvent désormais alimenter toutes les fonctionnalités d’IA de Discourse en utilisant notre propre grand modèle linguistique (LLM)[1] auto-hébergé à poids ouverts, préconfiguré et inclus gratuitement avec votre service d’hébergement.

Cela signifie que toutes les fonctionnalités d’IA sont disponibles pour les clients Starter, Pro, Business et Enterprise sans avoir besoin d’un fournisseur de LLM tiers.

:gear: Activation du LLM hébergé

Ceci devrait déjà être disponible et activé sur votre site sous la page de configuration du LLM :

Admin → Plugins → Discourse AI → LLMs

Par défaut, « CDCK Hosted Small LLM » sera sélectionné comme votre LLM par défaut, et il devrait également être disponible pour la sélection par n’importe quel persona sur votre site.

:chart_increasing: Utilisation et limites

Discourse mesure l’utilisation du LLM hébergé via un système de crédits. Chaque jeton de requête ou de réponse consomme 1 crédit. Les crédits sont proportionnels à votre niveau d’hébergement et sont réinitialisés quotidiennement.

✱ Certaines fonctionnalités telles que la détection de spam par IA ne seront pas comptabilisées dans vos crédits

Les limites de crédits par niveau peuvent être trouvées sur la page des tarifs de notre site web. Une fois votre limite quotidienne atteinte, toutes les fonctionnalités d’IA qui dépendent du LLM seront mises en pause jusqu’à ce que les crédits soient réinitialisés le lendemain.

Si vous manquez rapidement de crédits, envisagez d’utiliser le système de quotas LLM pour définir des restrictions par utilisateur ou par groupe. La mise à niveau vers un niveau supérieur est une autre option si vous avez besoin de capacité supplémentaire.

Vous pouvez consulter l’utilisation de l’IA de votre site à tout moment depuis la page d’utilisation de l’IA dans le panneau d’administration.

Pour plus de détails sur ce qu’il faut faire lorsque les crédits sont épuisés, consultez :


  1. Large Language Model ↩︎

7 « J'aime »

Le petit modèle de langage (LLM) hébergé par CDCK est-il disponible via une API pour les instances auto-hébergées de Discourse ? Si oui, je présumerais qu’il y aurait des frais associés.

2 « J'aime »

Non, il ne l’est pas et nous n’avons pas l’intention de le rendre disponible.

Pour les instances auto-hébergées, opter pour des options telles que le niveau gratuit de Gemini ou OpenRouter est une excellente alternative.

7 « J'aime »