皆さん、こんにちは。
オンライン安全法(Online Safety Act)が2023年11月に英国で施行されたことは承知しております。Discourseは、この新しい法律をサポートし、18歳未満のユーザーがオンラインコミュニティをより安全に利用できるよう、新しい機能を提供しますか?
よろしくお願いいたします。
皆さん、こんにちは。
オンライン安全法(Online Safety Act)が2023年11月に英国で施行されたことは承知しております。Discourseは、この新しい法律をサポートし、18歳未満のユーザーがオンラインコミュニティをより安全に利用できるよう、新しい機能を提供しますか?
よろしくお願いいたします。
![]()
新しい「違法」フラグオプションが追加されました。
レビューへのリンクを教えていただけますか?英国での変更内容が気になります。
解説はこちらです
Discourse の皆様にご興味いただけるかもしれない、今後のディスカッションセッションを見つけました。
「Promising Trouble は、Ofcom の Ali Hall と Andrew Park を招き、小規模で低リスクのコミュニティサイトに対する新しいオンライン安全責任について話し合うランチセッションを開催します。」
2025年2月12日(水) – 午前6時30分~午前8時00分 CST
このトピックに関する興味深い投稿はこちらです。
現在、OSAのコンプライアンスに取り組んでいます。
作業の大部分は、組織が違法な危害のリスクを考慮し、軽減しようとしたことを文書化することのようですが、フォーラム内で悪意のある活動がないことの証拠を提供するのに役立つ、共有可能なドキュメントや自動化ツールを開発した方がいらっしゃいましたら、ご教示いただけますでしょうか?
以下のようなものが考えられます。
これらすべてにおけるプライバシーへの影響については、誰しもが懸念するとおり、私も同様に懸念していますが、監査を受ける場合、違法な行為が行われていないかを確認するために適切な量の労力を投資したことを示す必要があり、その証拠を毎年提示(およびレビュー)できる必要があります。
監視対象の単語は良いアイデアのように聞こえますが、もちろんそれは粗雑な手段です。
ユーザー間メッセージの使用状況を定期的にチェックするプロセスを文書化することを選択するかもしれません。しかし、それは私のユーザーがその機能を使用することはほとんどないので、私にはうまくいきます。
/admin/reports/user_to_user_private_messages
これらのメッセージが増加した場合、リスクが高まっていることを示している可能性があり、それに対応する必要があります。極端な選択肢の間には何があるのかわかりません。
個人的には、偽陰性も偽陽性もある自動分析は望みません。
私は、私のフォーラムをすべての軸で非常に低リスクと位置づける単純な声明に集中する(するつもりです)。したがって、比例したチェックは何も行わないこと、または何かを行う場合は、非常に最小限で簡単なことを行うことです。フラグに頼るのは簡単で簡単です。
コミュニティのためにセルフホスト型のディスコースのセットアップを始めたばかりなのですが、私も同様の懸念を抱いています。多くのサイトが法的な問題を回避するためにID認証を導入しています。私たちのコミュニティは最低16歳からで、英国でホストされます。違法行為を報告するためのフィクションである一方で、これは大人が利用するサービスであり、私たちは遵守する必要があることを思い出させられます。
これに対処するためのさらなるツールが登場する予定はありますか、それとも現在のところ法改正に対応していますか?
年齢確認サービスとの連携で何か動作しているものはありますか?