Desbloquea todas las funciones de Discourse AI con nuestro LLM alojado

Nous sommes ravis d’annoncer que nos clients hébergés peuvent désormais alimenter toutes les fonctionnalités d’IA de Discourse en utilisant notre propre grand modèle linguistique (LLM) hébergé à poids ouverts[1], préconfiguré et inclus gratuitement avec votre service d’hébergement.

Cela signifie que chaque fonctionnalité d’IA est disponible pour les clients Starter, Pro, Business et Enterprise sans avoir besoin d’un fournisseur de LLM tiers.

:gear: Activation du LLM hébergé

Ceci devrait être déjà disponible et activé sur votre site sous la page de configuration du LLM :

Admin → Plugins → Discourse AI → LLMs

Par défaut, « CDCK Hosted Small LLM » sera sélectionné comme votre LLM par défaut, et il devrait également être disponible pour la sélection par n’importe quel persona sur votre site.

:chart_increasing: Utilisation et limites

Discourse mesure l’utilisation du LLM hébergé via un système de crédits. Chaque jeton de requête ou de réponse consomme 1 crédit. Les crédits sont proportionnels à votre niveau d’hébergement et sont réinitialisés quotidiennement.

✱ Certaines fonctionnalités telles que la détection de spam par IA ne seront pas comptabilisées dans vos crédits

Les limites de crédits par niveau peuvent être trouvées sur la page des tarifs de notre site web. Une fois que vous avez atteint votre limite quotidienne, toutes les fonctionnalités d’IA qui dépendent du LLM seront mises en pause jusqu’à ce que les crédits soient réinitialisés le lendemain.

Si vous manquez rapidement de crédits, envisagez d’utiliser le système de quotas LLM pour définir des restrictions par utilisateur ou par groupe. La mise à niveau vers un niveau supérieur est une autre option si vous avez besoin de capacité supplémentaire.

Vous pouvez consulter l’utilisation de l’IA de votre site à tout moment depuis la page d’utilisation de l’IA dans le panneau d’administration.

Pour plus de détails sur ce qu’il faut faire lorsque les crédits sont épuisés, consultez :


  1. Large Language Model ↩︎

7 Me gusta

¿El LLM pequeño alojado por CDCK está disponible a través de una API para que las instancias de Discourse autoalojadas lo utilicen? Si es así, supongo que habría una tarifa asociada.

2 Me gusta

No, no lo está y no planeamos hacerlo disponible.

Para las instancias autoalojadas, optar por opciones como el nivel gratuito de Gemini u OpenRouter es una gran alternativa.

7 Me gusta