セーフガーディングの問題にはどう対応しますか?

私たちは比較的活発なコミュニティを運営しており、ユーザー層は若めです。長年、いくつかの安全確保に関する問題(自殺の脅しなど)に直面してきましたが、すべての事例を真剣に扱いつつ(当然の対応ですが)、それらは注目を引くための叫びであることが多く、モデレーターが時間をかけて事態を収束させる必要があります。言うまでもなく、これはこうした対応を望まないスタッフに負担をかけます。

コミュニティマネージャーは、第三者機関のプログラムを通じてこうした問題への対応訓練を受けており、潜在的な自傷行為、ハラスメント、いじめが疑われる場合はいつでも通報できる特別グループを設け、そうした状況への明確な対応マニュアルを整備しています。

他のコミュニティではこうした事態をどのように扱っているのか知りたいです。適切な支援先を紹介した上で、自傷行為の脅しをした相手との会話を終えるのは、いつまで許されるのでしょうか?

ご教示いただければ幸いです。

「いいね!」 4

興味深いことです。かつて、以下のような話がされていました:

もしこれがRedditのように実装されれば、モデレーターに特別なメッセージを送信し、システムアカウントから管理者が指定した危機対応リソースへのリンクを含む「懸念メッセージ」を自動的に送信することが可能になります。例えば:

https://reddit.zendesk.com/hc/en-us/articles/360043513931-What-do-I-do-if-someone-talks-about-seriously-hurting-themselves-or-is-considering-suicide-

「いいね!」 6

ご意見ありがとうございます。

実は、ご指摘の「懸念メッセージ」の仕組みはすでに一部実装されています。問題がある場合や、心配な会話でグループを単にタグ付けするだけで、誰でも連絡できる非公開の「セーフガード」ディスカッショングループを設けています。

Reddit のヘルプは素晴らしいリソースですね。以前にそこを確認しようと考えたかどうかは定かではありませんが、大変参考になります。

「いいね!」 3