Sblocca tutte le funzionalità di Discourse AI con il nostro LLM ospitato

Nous sommes ravis d’annoncer que nos clients hébergés peuvent désormais alimenter chaque fonctionnalité d’IA de Discourse en utilisant notre propre LLM[1] auto-hébergé à poids ouverts, préconfiguré et inclus gratuitement avec votre service d’hébergement.

Cela signifie que chaque fonctionnalité d’IA est disponible pour les clients Starter, Pro, Business et Enterprise sans avoir besoin d’un fournisseur de LLM tiers.

:gear: Activation du LLM auto-hébergé

Ceci devrait déjà être disponible et activé sur votre site sous la page de configuration du LLM :

Admin → Plugins → Discourse AI → LLMs

Par défaut, « CDCK Hosted Small LLM » sera sélectionné comme votre LLM par défaut, et il devrait également être disponible à la sélection par n’importe quel persona sur votre site.

:chart_increasing: Utilisation et limites

Discourse mesure l’utilisation du LLM auto-hébergé via un système de crédits. Chaque jeton de requête ou de réponse consomme 1 crédit. Les crédits sont proportionnels à votre niveau d’hébergement et sont réinitialisés quotidiennement.

✱ Certaines fonctionnalités telles que la détection de spam par IA ne seront pas comptabilisées dans vos crédits

Les limites de crédits par niveau peuvent être trouvées sur la page des tarifs de notre site web. Une fois votre limite quotidienne atteinte, toutes les fonctionnalités d’IA qui dépendent du LLM seront mises en pause jusqu’à ce que les crédits soient réinitialisés le lendemain.

Si vous manquez rapidement de crédits, envisagez d’utiliser le système de quota LLM pour définir des restrictions par utilisateur ou par groupe. La mise à niveau vers un niveau supérieur est une autre option si vous avez besoin de capacité supplémentaire.

Vous pouvez consulter l’utilisation de l’IA de votre site à tout moment depuis la page d’utilisation de l’IA dans le panneau d’administration.

Pour plus de détails sur ce qu’il faut faire lorsque les crédits sont épuisés, consultez :


  1. Large Language Model ↩︎

7 Mi Piace

Il CDCK Hosted Small LLM è disponibile tramite API affinché le istanze di Discourse self-hosted possano utilizzarlo? In tal caso, presumerei che ci sia un costo associato.

2 Mi Piace

No, non lo è e non abbiamo intenzione di renderlo tale.

Per le istanze auto-ospitate, optare per soluzioni come il livello gratuito di Gemini o OpenRouter è un’ottima alternativa.

7 Mi Piace