keegan
(Keegan George)
1
ホストされているお客様は、当社のホスト型オープンウェイトLLMを使用して、すべてのDiscourse AI機能を、ホスティングサービスに無料でプリコンフィギュレーションされて含まれる形で利用できるようになったことをお知らせします。
これにより、サードパーティのLLMプロバイダーを必要とせずに、Starter、Pro、Business、Enterpriseのお客様がすべてのAI機能を利用できるようになります。
ホスト型LLMの有効化
これは、LLM設定ページでサイト上で既に使用可能で有効になっているはずです。
管理 → プラグイン → Discourse AI → LLM
デフォルトでは、「CDCK Hosted Small LLM」がデフォルトのLLMとして選択され、サイト上のペルソナによる選択肢としても利用可能になるはずです。
使用状況と制限
Discourseでは、ホスト型LLMの使用状況をクレジットシステムを通じて測定します。リクエストまたはレスポンスのトークンごとに1クレジットが消費されます。クレジットはホスティングティアに比例し、毎日リセットされます。
✱ AIスパム検出などの一部の機能は、クレジットにはカウントされません
ティアごとのクレジット制限は、当社のウェブサイトの料金ページで確認できます。毎日の上限に達すると、LLMに依存するAI機能は、翌日クレジットがリセットされるまで一時停止します。
クレジットの消費が速い場合は、LLMクォータシステムを使用して、ユーザーごとまたはグループごとの制限を設定することを検討してください。より高いティアへのアップグレードも、追加の容量が必要な場合の選択肢です。
いつでも管理パネルのAI使用状況ページからサイトのAI使用状況を確認できます。
クレジットがなくなった場合の対処方法の詳細については、以下を参照してください。
「いいね!」 13
mcmcclur
(Mark McClure)
2
CDCKがホストする小規模LLMは、セルフホスト型Discourseインスタンスが利用できるAPI経由で利用可能ですか?もしそうであれば、関連する料金が発生すると推測されます。
「いいね!」 2
Falco
(Falco)
3
いいえ、利用できませんし、その予定もありません。
セルフホスト型インスタンスの場合、Geminiの無料枠やOpenRouterのようなオプションを利用するのが素晴らしい代替手段となります。
「いいね!」 11
westes
(Will)
6
AI要約機能はトピックのマスター投稿に対してのみ利用可能なのでしょうか?スレッド内の長くて複雑な返信に対しても利用できると便利です。
Starterプランには1日あたり15Kの「AIクレジット」があります。1クレジットはどのくらいの量に相当しますか?返信内の単一トークンでしょうか?各AI要約の下部に、いくつのクレジットを使用したかが表示されると便利です。
Falco
(Falco)
7
要約機能はすでにトピック全体を要約しています。
「AIクレジット」1つは、リクエストまたはレスポンス内の1トークンに相当します。
例えば、私の返信前のこのトピックの要約では、1550トークンが使用されました。
トークン使用状況に関する非常に詳細なレポートがある管理者使用状況ページがありますので、そちらの利用をお勧めします。
westes
(Will)
8
トピック全体を要約するのは便利ですが、私が議論しているのはそのケースではありません。150件の返信があるトピックで、長くて複雑な特定の返信を読んでいます。その1つの返信をAIに要約してもらいたいのです。Twitterには現在この機能があり、素晴らしく便利な機能です。
1回のAI要約に1500 AIクレジットが必要で、1日に15Kクレジットしか付与されない場合、AI要約をリクエストする人が10人いるだけで、すべて使い果たしてしまうことになります。これは、その機能をあまり役に立たないものにしてしまいます。
Falco
(Falco)
9
任意の投稿の任意のテキストを選択し、「AIに尋ねる」をクリックしてから、カスタムプロンプトを使用して要約を依頼できます。
はい、それは1日あたり1ドル未満のプランでの無料クレジット枠です。
より多くのクレジットを上位プランで提供しており、より多くの利用を維持する必要がある場合は、すべてのプランでサードパーティのLLM(大規模言語モデル)の使用を許可しています。
「いいね!」 2
westes
(Will)
10
$20/月から$100/月にジャンプした場合、1日あたり30KのAIクレジットが付与され、その機能を20人のユーザーが使用するだけでクレジットを使い果たしてしまうということですか?これは、私のディスカッションサイトではコモディティ化した機能にとって、持続可能な経済モデルではないと思います。
keegan
(Keegan George)
11
@westesさん、こんにちは。
おっしゃることは理解できます。クレジット制限が最初は窮屈に感じられる可能性があることは分かります。
状況を理解するのに役立つ点がいくつかあります。
クレジットは毎日補充されるため、24時間ごとに新しい15K(Starter)または30K(Pro)が付与されます。実際には、キャッシュが導入されているため、同じ日に20人もの異なるユーザーが要約をリクエストする可能性は非常に低いです。トピックが要約されると、後続のユーザーは追加のクレジットを消費することなくキャッシュされたバージョンを見ます。しかし、実際にそのレベルの毎日の要約利用が見られるのであれば、それは実際には良い兆候です!それはあなたのフォーラムが非常に活発で、人々が関与していることを意味します。
利用が本当にそれほど多いのであれば、より上位のプランへの移行を検討する時期かもしれません。Businessプラン(10万クレジット)は、非常に活発なコミュニティを十分にサポートできます。高いAI機能の使用量は、通常、他の面でも現在のプランを超え始めていることを示しています。
プランのアップグレードを検討する前に、ユーザーごとのクォータも役立ちます。LLMクォータシステム(LLMクォータシステム)を使用すると、少数のパワーユーザーが1日の早い段階ですべてを使い果たさないように、利用をより持続可能な方法で分散させることができます。
それでも役に立たない場合は、サードパーティのLLMがユースケースにより適している可能性があります。独自のLLMプロバイダー(OpenAI、Anthropic、Geminiなど)を接続できます。これについては別途料金が発生しますが、より多くの制御が可能になり、大量利用の場合はより経済的になる可能性があります。
私たちは、APIキーや個別の請求の手間なしに、ほとんどの顧客にとってうまく機能する既製のオプションを提供しようとしています。しかし、それを使用することに制限されているわけではありません。それは役立つことを意図しており、もしそれが制限的すぎると感じるなら、サードパーティプロバイダーに切り替えることは完全に有効であり、私たちはそれを完全にサポートしています。
「いいね!」 1