はい。
はい、各モデルは異なるベクトル表現を生成します。
基本的にトピックごとに1回の呼び出しなので、計算は非常に簡単です。
トピックのほとんどが長い場合、8kトークンに切り捨てられます。それ以外の場合は、トピックの長さが使用されます。
はい。
どちらもトピックレベルで機能するため、トピックごとに1回です。
はい。
はい、各モデルは異なるベクトル表現を生成します。
基本的にトピックごとに1回の呼び出しなので、計算は非常に簡単です。
トピックのほとんどが長い場合、8kトークンに切り捨てられます。それ以外の場合は、トピックの長さが使用されます。
はい。
どちらもトピックレベルで機能するため、トピックごとに1回です。
提案されたPRでプラグインをフォークせずに、gemを正しく追加する方法を教えていただけますか?
HuggingFaceでスケールツーゼロ機能を試しており、埋め込みのバックフィルにRakeタスクを使用する必要があります。
DiscourseAi::Embeddings::EmbeddingsController#search で JSON を使用して Discourse AI Embeddings のフル検索を行うと、なぜ 418 エラーコードが返されるのですか?手伝ってもらえますか?
3件の投稿が新しいトピックに分割されました: Gemini Embeddings Issue After Discourse Update to 3.6.0 Beta 2
2件の投稿が新しいトピックに分割されました: Gemini API Embedding Configuration Clarification