Online Safety Act - どんな新機能が利用可能になりますか?

皆さん、こんにちは。

オンライン安全法(Online Safety Act)が2023年11月に英国で施行されたことは承知しております。Discourseは、この新しい法律をサポートし、18歳未満のユーザーがオンラインコミュニティをより安全に利用できるよう、新しい機能を提供しますか?

よろしくお願いいたします。

「いいね!」 7

:wave:

新しい「違法」フラグオプションが追加されました。

「いいね!」 5

レビューへのリンクを教えていただけますか?英国での変更内容が気になります。

「いいね!」 3

解説はこちらです

「いいね!」 3

Discourse の皆様にご興味いただけるかもしれない、今後のディスカッションセッションを見つけました。

「Promising Trouble は、Ofcom の Ali Hall と Andrew Park を招き、小規模で低リスクのコミュニティサイトに対する新しいオンライン安全責任について話し合うランチセッションを開催します。」

2025年2月12日(水) – 午前6時30分~午前8時00分 CST

このトピックに関する興味深い投稿はこちらです。

現在、OSAのコンプライアンスに取り組んでいます。

作業の大部分は、組織が違法な危害のリスクを考慮し、軽減しようとしたことを文書化することのようですが、フォーラム内で悪意のある活動がないことの証拠を提供するのに役立つ、共有可能なドキュメントや自動化ツールを開発した方がいらっしゃいましたら、ご教示いただけますでしょうか?

以下のようなものが考えられます。

  • 特定のキーワードや使用パターンを検索するデータエクスプローラーのクエリ?
  • 投稿やプライベートメッセージのフラグ付けを改善できる監視ワードのリスト?
  • 懸念されるアクティビティをフラグ付けするのに役立つDiscourse AIの設定やプロンプト?
  • 改善された「英国OSA承認済み」利用規約のテンプレート?
  • 最小限の追加作業で、保護の効果を最大化するためのその他の「システム管理者向けヒントとコツ」?

これらすべてにおけるプライバシーへの影響については、誰しもが懸念するとおり、私も同様に懸念していますが、監査を受ける場合、違法な行為が行われていないかを確認するために適切な量の労力を投資したことを示す必要があり、その証拠を毎年提示(およびレビュー)できる必要があります。

監視対象の単語は良いアイデアのように聞こえますが、もちろんそれは粗雑な手段です。

ユーザー間メッセージの使用状況を定期的にチェックするプロセスを文書化することを選択するかもしれません。しかし、それは私のユーザーがその機能を使用することはほとんどないので、私にはうまくいきます。
/admin/reports/user_to_user_private_messages

これらのメッセージが増加した場合、リスクが高まっていることを示している可能性があり、それに対応する必要があります。極端な選択肢の間には何があるのかわかりません。

  • ユーザーが管理者に問題のあるメッセージを知らせる
  • 管理者が問題のあるメッセージでないかチェックするために、メッセージの一部(またはすべて)を読む

個人的には、偽陰性も偽陽性もある自動分析は望みません。

私は、私のフォーラムをすべての軸で非常に低リスクと位置づける単純な声明に集中する(するつもりです)。したがって、比例したチェックは何も行わないこと、または何かを行う場合は、非常に最小限で簡単なことを行うことです。フラグに頼るのは簡単で簡単です。

「いいね!」 1

コミュニティのためにセルフホスト型のディスコースのセットアップを始めたばかりなのですが、私も同様の懸念を抱いています。多くのサイトが法的な問題を回避するためにID認証を導入しています。私たちのコミュニティは最低16歳からで、英国でホストされます。違法行為を報告するためのフィクションである一方で、これは大人が利用するサービスであり、私たちは遵守する必要があることを思い出させられます。

これに対処するためのさらなるツールが登場する予定はありますか、それとも現在のところ法改正に対応していますか?

年齢確認サービスとの連携で何か動作しているものはありますか?

「いいね!」 1