Discourseコミュニティを立ち上げる予定なのですが、馬鹿げた質問かもしれませんが、あなたの投稿を読んだ後、このプラットフォームにはAI生成スパムや組織的な悪用に対する保護策があるのかどうか疑問に思いました。
これをパブリックフォーラムで使用していますが、素晴らしい効果を発揮しています。AIスパム対策でAIスパムと戦うのです。実際に、ライブ投稿に到達するものは一つもありません。
#ドキュメンテーション の #スパム に関する情報にご興味があるかもしれません
https://meta.discourse.org/tags/c/documentation/10/spam
これは投稿ごとのスパム対策のようですね。
わかりました、フォーラムを保護するために他に何かできることはありますか?
理解できません。ドキュメントは読みましたか?AIを使用するものもあれば、そうでないものも含め、多くの緩和策が導入されています。
おそらく、ask.discourse.com で少しブレインストーミングをするとよいでしょう。ここは、ここでのすべての小さなエッジケースを把握しています。
承知いたしました。対応します。ありがとうございます!
AIスパム検出は、明白な投稿ごとのスパムには非常に効果的に対応しているようです。
個々の投稿はルールに違反しないものの、複数のアカウントにわたる活動や時間経過に伴う活動が、依然として協調的であるか「おかしい」と感じられる状況に、チームはどのように対処しているのか興味があります。それに対する組み込みのワークフローはありますか?
そこでコミュニティモデレーション機能が役立ちます。メンバーが特定の投稿に何か問題があることに気づいた場合、それを報告できます。「その他」の理由は、モデレーターに気づいた傾向を知らせるのに便利です。
なるほど、明確にしてくれてありがとう。
ちなみに、より大規模または非常に活発なコミュニティでは、これは通常どのようにスケールしますか?フラグ付けシステムは通常、傾向を十分に明確に表面化させますか、それともモデレーターは手動で投稿やアカウントを横断してアクティビティを関連付ける必要があることがよくありますか?