Discourse AIの全機能をホスト型LLMでアンロック

ホストされているお客様は、当社のホスト型オープンウェイトLLM[1]を使用して、すべてのDiscourse AI機能を、ホスティングサービスに無料でプリコンフィギュレーションされて含まれる形で利用できるようになったことをお知らせします。

これにより、サードパーティのLLMプロバイダーを必要とせずに、Starter、Pro、Business、Enterpriseのお客様がすべてのAI機能を利用できるようになります。

:gear: ホスト型LLMの有効化

これは、LLM設定ページでサイト上で既に使用可能で有効になっているはずです。

管理 → プラグイン → Discourse AI → LLM

デフォルトでは、「CDCK Hosted Small LLM」がデフォルトのLLMとして選択され、サイト上のペルソナによる選択肢としても利用可能になるはずです。

:chart_increasing: 使用状況と制限

Discourseでは、ホスト型LLMの使用状況をクレジットシステムを通じて測定します。リクエストまたはレスポンスのトークンごとに1クレジットが消費されます。クレジットはホスティングティアに比例し、毎日リセットされます。

AIスパム検出などの一部の機能は、クレジットにはカウントされません

ティアごとのクレジット制限は、当社のウェブサイトの料金ページで確認できます。毎日の上限に達すると、LLMに依存するAI機能は、翌日クレジットがリセットされるまで一時停止します。

クレジットの消費が速い場合は、LLMクォータシステムを使用して、ユーザーごとまたはグループごとの制限を設定することを検討してください。より高いティアへのアップグレードも、追加の容量が必要な場合の選択肢です。

いつでも管理パネルのAI使用状況ページからサイトのAI使用状況を確認できます。

クレジットがなくなった場合の対処方法の詳細については、以下を参照してください。


  1. 大規模言語モデル ↩︎

「いいね!」 7

CDCKがホストする小規模LLMは、セルフホスト型Discourseインスタンスが利用できるAPI経由で利用可能ですか?もしそうであれば、関連する料金が発生すると推測されます。

「いいね!」 2

いいえ、利用できませんし、その予定もありません。

セルフホスト型インスタンスの場合、Geminiの無料枠やOpenRouterのようなオプションを利用するのが素晴らしい代替手段となります。

「いいね!」 7