Discourse AIを試すのを妨げているものは何ですか?

これが再び話題になったので:

  1. 私はそれを使用していますが、コストを非常に注意深く監視しています。私の最大の懸念は、少なくとも平均的なトークン使用量がどの程度になるかの感覚を得るまで、トークン使用量が制御不能になることです。コスト制限を設定できるのは良いことですが、コミュニティの通常の利用状況を知るまで、個人的には安心できません。これには時間がかかります。

  2. ユーザーの信頼問題は非常に大きいです。私がどのようなメッセージを作成しても、サイト管理者として何を言っても無駄です。LLMがユーザー生成コンテンツをトレーニングに使用しており、Discourseシステムによるいかなる使用も「許可なく」ユーザーデータを「販売」しているという揺るぎない認識があります。これは、私の経験では、多くのコメント投稿者の間で一般的な問題であり、人々は「AI企業が実際に何をしているかを知っている」ため、それを覆すことは不可能です。フォーラムでAIベースのトリアージを有効にして、それを実行していると言っても、「私の言葉でお金を稼ぐために、あなたのデータをAIテックブロ企業に送ることに同意しません!」という苦情の洪水に直面する可能性があります。この種のことに懸念を抱いていない人もいますが、懸念している人は、議論には全く興味がない一方で、激怒しています。この問題に対する良い答えがありません。

  3. 私のフォーラムのスパム検出の状態を、[ある時点で数十の異なる企業のモデルがどのように感じているか](https://meta.discourse.org/t/ai-spam-bot-says-it-is-not-spam-but-scan-log-says-it-is-spam/379375/5)に依存させることに、私はいくぶん不快感を感じています。正直に言いましょう。AIスパム検出、AIトリアージ、その他のすべてのAI機能は、基本的に「よし、これをAIの問題にしよう」と言って、プロンプトエンジニアリングを通じてそれをどのように実行したいかをコード化しようとしているだけです。それは機能しますが、そのプロセスは*非常に非決定的*です。基本的に、物事が機能し続けていることを願うしかありません。私はこれが好きではありません。全く好きではなく、不安になります。私はツールが完全に決定的であることを望みます。LLMは決定的であることの対極にあり、私たちはOpenAI*などが提供するものに、フォーラムの機能の一部を依存させています。

とはいえ、私はAIアンチスパムとAIフォーラムトリアージの両方を使用しています。それは役立ちます。しかし、これらのソリューションの効果を継続的に監視する必要があるという事実を認識するように努めています。

「いいね!」 2