オンラインセーフティ法(新しいOfcomルール)」}】

こんにちは

英国政府はオンライン安全法を改正する予定ですが、Discourse はこれに対応するためにどのような対策を講じていますか、または英国でホスティングしている人向けの推奨される対応はありますか?

https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/time-for-tech-firms-to-act-uk-online-safety-regulation-comes-into-force/

私たちのコミュニティはこの件について調査中ですが、これは私たちにかかっているのか、それとも Discourse にかかっているのか、私には不明瞭です。理論的には、これはすべての WhatsApp グループチャットや Discord サーバーがこれを行う必要があることを意味します。

何かお手伝いいただければ幸いです(確認しましたが、これに関する最近のスレッドを見つけることができませんでした)。

「いいね!」 1

Ofcomのウェブサイトより:「企業は現在、プラットフォーム上での犯罪活動に対処するための措置を開始することが法的に義務付けられています」

Discourseはすでに、サイト上の違法行為をスタッフに警告するための「違法」フラグによって、犯罪活動に対処する方法を提供していると思います。現実的に、「違法」フラグオプションのような対策を講じる以外に、他にできることはありますか?

「いいね!」 7

はい、対応中です。今年の大半で監視しており、準備はできています。

両方に責任があります。我々はOSA(メタで遵守する必要があるため)を遵守するためのツールを提供しますが、それらをどのように使用するかはあなた方の責任です。

主な考慮事項は以下の通りです。

上記で@ondrejが投稿した違法コンテンツフラグにより、これに対応しています。これは、既存のツールを使用してコンプライアンスに準拠した方法でコンテンツを削除し、適切な報告を行うことをトリガーするはずです。

上記と同様に、違法フラグまたはその他のカスタムフラグタイプが利用可能です。ログインしていないユーザーも違法コンテンツをフラグ付けできるように変更を加えています。これのETAはいつですか、@tobiaseigen

内部プロセスはご自身で定義する必要がありますが、データはすべて記録されるため、必要に応じて報告できます。

上記を参照してください。

これは作成していただく必要があります。

これも整理していただく必要があります。

これもあなた方次第です。

そして…これもあなた方次第です。

「いいね!」 11

私たちに課せられているすべてのことについて、推奨されるプロセスとコピーはありますか?

好奇心からお伺いしますが、英国では小規模、中規模、大規模なサービスプロバイダーをどのように定義していますか?

「いいね!」 1

私も興味があるので、誰か見つけたら教えてほしいです。特定の定義は見つかりませんが、規模の異なるサービスは、より大きなサービスプロバイダーとは少し異なる扱いを受けているようです。「機能が限られている小規模なサービスには、最大規模の企業と同じ措置を要求するものではありません。」Gov.uk, para. 6

「いいね!」 1

フォーラムソフトウェアは、1年間のモデレーターアクションのリストをすぐに提供できますか?それとも、たとえばフラグへの対応でフィルタリングされたモデレーターアクションを提供できますか?別途記録を保持したくありません。(フラグに対応した結果、ユーザーを削除することがありますが、これはフラグへの対応ではオプションではありません。)

「いいね!」 1

いいえ、残念ながら提供することは難しいでしょう。GDPRと同様に、私たちは準拠するためのツールを提供しますが、ご自身で法的アドバイスを求める必要があります。

「いいね!」 2

HNで議論があります。こちら(300のフォーラムを運営していた人物がすべて閉鎖することを決定した特定のケースに関するもの)には、有用な情報と公式ドキュメントへのリンクが含まれています。

私の理解では、月間アクティブユーザー70万人(英国)が中規模のしきい値です。700万人が大規模のしきい値です。

法律の側面によっては、サービスのサイズに影響されないものもあれば、影響されるものもあることに注意してください。

詳細については、以下を参照してください。
(草案)ユーザー間サービスにおける違法コンテンツ行動規範(Ofcomリンク)

これは、フォーラム所有者にとってのリスクが低確率だが高コストであるケースだと思います。個人の判断、リスクの認識、およびリスクへの態度が影響します。

「いいね!」 2

ありがとうございます。つまり、その全容は一部にしか適用されないということですね。

イギリスに住んでいる友人の一人が、この件でかなりパニックになっているので、私が興味を持っている理由の一つです。

リスクアセスメントガイドラインはこちらです: https://www.ofcom.org.uk/siteassets/resources/documents/online-safety/information-for-industry/illegal-harms/risk-assessment-guidance-and-risk-profiles.pdf?v=387549

「いいね!」 2

Hawkさん、ありがとうございます。(PDFリンクは特定のバージョンへのリンクのように見えますが、最新のものに解決されることを確認しました。)

こちらに、子供を特にターゲットにしていない、またはポルノを提供していない自己ホスト型の小規模フォーラムに新しい法律がどのような影響を与える可能性があるかについての、思慮深い(ただし権威的ではない)説明があります。主な点は、法律を理解し、アプローチを文書化することだと思います。そこから:

義務

小規模なユーザー間サービスとして、OSAは以下のことを要求します:

  • 違法コンテンツのリスクを評価する (s9)
  • 特定した違法コンテンツのリスクを軽減するための比例的な措置を講じる (s10(2)(c))
  • 優先コンテンツにユーザーが遭遇するのを防ぐための比例的な措置を講じる (s10(2)(a))
  • 優先的な違反を犯すリスクを軽減するための比例的な措置を講じる (s10(2)(b))
  • ユーザーが違法コンテンツ、および子供に有害なコンテンツを報告し、それを削除できるようにする (s20)
  • ユーザーが報告や削除などについて苦情を申し立てられるようにする (s21)
  • 「ユーザーの表現の自由の権利を保護することの重要性に特に留意する」 (s22(2))

これらの義務について直接心配しすぎる必要はありません。リスク評価プロセスが、それらを遵守するために必要なことをガイドします。

「いいね!」 2

現時点で、リスクアセスメントの実施に必要なすべての情報はOfComから提供されているはずです。リスクアセスメントを実施すると、軽減策を講じたいと考える可能性のある特定のリスクのリストが得られます。必要なツールはすべて揃っていると確信していますが、不明な点がある場合はここで議論できます。

「いいね!」 3

これに関する参照資料はありますか?「サイズ」(正直なところ、これはOSAの記述における私の最大の不満の1つです)を定義するものは何も見つけることができませんでした。

「いいね!」 2

確認するのが最も難しいことの1つでもあることに気づきました。コミュニティの管理者としてMetaのリスクを評価する責任があるのか、それともDiscourseを一般的に使用するリスク(顧客のリスク)なのか、確信が持てませんでした。

後者であれば、どの規模のカテゴリに分類されるのか分かりませんでした。結果的に前者でした。

セミナーで学んだことは、Ofcomはすでに、年次の自己評価以上のものが要求されるカテゴリに該当すると現在考えているプラットフォームに連絡を取り、正式に評価を提出する必要があることを伝えているということです。連絡を受けていない場合は、自己評価を行い、軽減策を完了し、毎年または範囲に大きな変更があった場合に再評価する必要があると想定できると思います。求められた場合に評価作業を示すことができる必要がありますが、どこかに提出する必要はありません。

しかし、私は皆と同じようにこの分野の初心者なので、これはコンプライアンスに関するアドバイスではなく、私の意見として考慮してください。ご自身で調査を行う必要があります。

「いいね!」 5

現在の草案ガイダンスを確認しましたが、そこには「large」の定義はありますが、「medium」の定義はありません。しかし、いくつかの箇所で、例えば70万ユーザーのサービスに関する注記があります。

「いいね!」 1

私たちのサイトの種類に合ったOfComのウェビナー「Indie and Community Web Compliance」が開催されました。メモ、リンク、動画については、こちらのリンクをご覧ください。

こんにちは @HAWK さん、Discourseの機能が提起された問題にどのように対応するかを文書化した、シンプルで単一のページ(またはフォーラム投稿)を作成することは可能でしょうか?

現在、このスレッドでのあなたの回答や、報告に関する他の投稿(違法コンテンツチャットチャンネルの管理者など)を断片的に指摘して証拠の一部としていますが、製品自体が提供するコア機能のリストがあれば、証拠として参照できる「公式」ページがあった方が、より役立つかもしれません。プラットフォームをレビューする人々が要件を満たしていると確信するためにも役立つかもしれません。

「いいね!」 1

ルーシーさん、

喜んでお手伝いしますが、まず何かを明確にする必要があります。

具体的にどの問題について言及していますか?リスクアセスメントで特定された問題ですか?もしそうであれば、緩和しようとしていることをリストアップしていただければ、ツールの提案でお手伝いできます。

誰もが異なるリスクを緩和し、それらのリスクに対する許容度が異なります。そのため、決定的なリストを投稿することはできません。例えば、私たちは13歳未満の子供をMetaに許可していないため、子供に関連する多くの高いリスクを緩和する必要はありません。

アセスメントを共有していただけるなら、それを例として使用させていただきます。

「いいね!」 2

どこから始めればよいかわからない方のために、このツールが手順を説明します。

https://www.ofcom.org.uk/os-toolkit/assessment-tool/

「いいね!」 3