Discourseにはこのような機能はありますか?もしあれば素敵ですね。
Discourse Google Perspective API で実験を行いましたが、あなたがリンクされた記事で説明されているのと同様の問題に直面しました。微妙なニュアンスのある言語処理に苦しみ、非差別的な表現を差別的と誤って検出してしまうことがありました。こうした誤検出(フォールス・ポジティブ)自体が差別的な結果を招くこともあります!
しかし、Twitter の初期テストではいくつかの問題が発生しました。システムやアルゴリズムが多くの会話に見られるニュアンスを十分に理解できず、差別的な返信と皮肉、あるいは時には友好的な軽口との区別がつかないことがありました。また、少数派コミュニティが差別的な表現を再定義し、害のない文脈で使用するケースへの対応も難しかったです。
プロンプトではありませんが、試すことはできます
管理 → カスタマイズ → 監視対象の単語
そこから以下があります
- ブロック
- 検閲
- 承認が必要
- フラグ
- リンク
- 置換
- サイレンス
これは非常に柔軟なので、お好みに合わせて使用してください。おそらく、「プロンプト」または「ナグ」オプションを追加することもできます。その場合、次のように表示されます。
「moist」という単語を投稿に使用してもよろしいですか?この単語はコミュニティで問題を引き起こすことが知られているため、代替案(「damp」など)を検討することをお勧めします。
「プロンプト」/「ナグ」オプションがあれば、非常に役立つと思います。このオプションの良い点は、文脈を外した場合でも、ユーザーは単にプロンプトを無視して適切に単語を使用でき、ユーザーが停止された場合でも「知りませんでした!」と言うことができないことです。
@sam @eviltrout ここに「警告」オプションを設けることについてどう思いますか?基本的には、投稿ボタンを押したときに、ターゲットのフレーズ/正規表現が投稿に含まれている場合にダイアログが表示されるだけです。文字通りこれです:
「moist」という言葉を投稿に使用してもよろしいですか?この言葉はコミュニティで問題を引き起こすことが知られているため、代替案を検討することをお勧めします。
ダイアログも設定できたらクールですが、これは素晴らしいスタートになると思います。
すべてのテキストは、管理、カスタマイズ、テキストからDiscourseで編集できます。ただし、単語ごとに固有のテキストを取得することはできません。それは少しやりすぎのように思えます。
問題の単語がなぜ疑わしいのかを述べる価値があると思うのですが。(でも、プロンプトされたすべての単語を、それを説明する同じページにリンクするだけかもしれません…?)
気に入っています。複数の警告単語を同時に使用した場合に問題が発生する可能性があり、まったく新しい種類の監視対象単語を追加する必要があります。これは中程度から大規模な作業の間のどこかにあり、おそらく中程度に近いでしょう。