Discourse AIの全機能をホスト型LLMでアンロック

@westesさん、こんにちは。

おっしゃることは理解できます。クレジット制限が最初は窮屈に感じられる可能性があることは分かります。

状況を理解するのに役立つ点がいくつかあります。

クレジットは毎日補充されるため、24時間ごとに新しい15K(Starter)または30K(Pro)が付与されます。実際には、キャッシュが導入されているため、同じ日に20人もの異なるユーザーが要約をリクエストする可能性は非常に低いです。トピックが要約されると、後続のユーザーは追加のクレジットを消費することなくキャッシュされたバージョンを見ます。しかし、実際にそのレベルの毎日の要約利用が見られるのであれば、それは実際には良い兆候です!それはあなたのフォーラムが非常に活発で、人々が関与していることを意味します。

利用が本当にそれほど多いのであれば、より上位のプランへの移行を検討する時期かもしれません。Businessプラン(10万クレジット)は、非常に活発なコミュニティを十分にサポートできます。高いAI機能の使用量は、通常、他の面でも現在のプランを超え始めていることを示しています。

プランのアップグレードを検討する前に、ユーザーごとのクォータも役立ちます。LLMクォータシステム(LLMクォータシステム)を使用すると、少数のパワーユーザーが1日の早い段階ですべてを使い果たさないように、利用をより持続可能な方法で分散させることができます。

それでも役に立たない場合は、サードパーティのLLMがユースケースにより適している可能性があります。独自のLLMプロバイダー(OpenAI、Anthropic、Geminiなど)を接続できます。これについては別途料金が発生しますが、より多くの制御が可能になり、大量利用の場合はより経済的になる可能性があります。

私たちは、APIキーや個別の請求の手間なしに、ほとんどの顧客にとってうまく機能する既製のオプションを提供しようとしています。しかし、それを使用することに制限されているわけではありません。それは役立つことを意図しており、もしそれが制限的すぎると感じるなら、サードパーティプロバイダーに切り替えることは完全に有効であり、私たちはそれを完全にサポートしています。