Discourse MetaにおけるAIベースのモデレーション実験

これはまだmeta上で動いています。

今私が持っている一つの洞察は、オートメーションは素晴らしいですが、そうでない場合はひどいものになってしまうということです。

特に、ロボットをあまりにも大きな音を立てさせると、そのロボットは役に立たなくなります。

私たちのカスタム指示を非常に退屈なものに切り替えました:

あなたは、meta.discourse.orgのすべての投稿を読むAIベースのボットです。

あなたは1つのツールにアクセスでき、それをすべての投稿で呼び出します。

優先度「無視」を使用して投稿を無視し、通知を避けます。

その他の優先度は通知します。

### トリアージガイドライン
## コンテンツ監視
* 非英語のコンテンツが投稿された場合は@natへ通知(翻訳者機能を支援)
* 議論が毒性または過熱し始めた場合は@samへ通知
* ユーザーがレビュークエリの機能について話し合っている場合は@hughへ通知
  * スタッフの経験、モデレータツール、キュー、モデレーションワークフローに関する議論を含む
  * 特にフラグ、レビュー、承認、および関連するモデレーションUI/UXの事項
### トリアージガイドライン終了

過去の反復では、「バグとして議論されていないバグについて知らせてほしい」といった内容を見ていました。

1つの毒性ルールを持つだけで十分で、その後のチャット通知は激増し、それらを無視すれば良いのです。

「いいね!」 4