قانون السلامة على الإنترنت (قواعد OfCom الجديدة)

مرحباً

تخطط الحكومة البريطانية لتغيير قوانين السلامة عبر الإنترنت، وكنت أتساءل ما هي الإجراءات التي يتخذها Discourse لمعالجة هذا الأمر أو ما إذا كان هناك رد مقترح لأي شخص يستضيف في المملكة المتحدة؟

https://www.ofcom.org.uk/online-safety/illegal-and-harmful-content/time-for-tech-firms-to-act-uk-online-safety-regulation-comes-into-force/

مجتمعنا يبحث في هذا الأمر، ولكن ليس من الواضح لي ما إذا كان العبء يقع على عاتقنا أم على Discourse، مما يعني من الناحية النظرية أن كل مجموعة دردشة على WhatsApp أو خادم Discord سيحتاج إلى القيام بذلك.

شكراً مقدماً على أي مساعدة (لقد تحققت ولكن لم أتمكن من العثور على موضوع حديث حول هذا الأمر)

إعجاب واحد (1)

من موقع Ofcom: “يُطلب من الشركات الآن قانونًا البدء في اتخاذ إجراءات لمكافحة النشاط الإجرامي على منصاتها”

أعتقد أن Discourse يوفر بالفعل طريقة لمكافحة النشاط الإجرامي من خلال علامة “إنه غير قانوني” لتنبيه الموظفين بالنشاط غير القانوني على الموقع. في الواقع، بخلاف وضع تدابير مثل خيار العلامة غير القانونية، هل هناك الكثير مما يمكن فعله؟

7 إعجابات

نعم، نحن على اطلاع دائم بالأمر. لقد كنا نراقبه طوال العام تقريبًا ونحن مستعدون.

تقع المسؤولية على كلانا. نحن نوفر الأدوات للامتثال لقانون الخدمات الرقمية (لأننا يجب أن نمتثل هنا في Meta)، ولكنك مسؤول عن كيفية استخدامك لها.

الاعتبارات الرئيسية هي:

لدينا هذا مع علامة المحتوى غير القانوني التي نشرها @ondrej أعلاه، والتي يجب أن تدفعك إلى استخدام الأدوات الموجودة لإزالة المحتوى بطريقة متوافقة وإجراء التقارير المناسبة.

كما هو مذكور أعلاه - علامة “غير قانوني” أو أنواع علامات مخصصة أخرى متاحة لك لاستخدامها. نحن نجري تغييرًا بحيث يمكن للمستخدمين غير المسجلين أيضًا الإبلاغ عن المحتوى غير القانوني. هل لدينا موعد تقديري لذلك يا @tobiaseigen؟

ستحتاج إلى تحديد عملياتك الداخلية بنفسك، ولكن يتم تسجيل جميع البيانات، لذا ستتمكن من تقديم تقارير عنها عند الحاجة.

انظر أعلاه.

هذا يقع على عاتقك لإنشائه.

أيضًا على عاتقك لتنظيمها.

أيضًا على عاتقك.

و… أيضًا على عاتقك.

11 إعجابًا

بالنسبة لجميع الأشياء التي تقع على عاتقنا، هل لديك عمليات مقترحة ونسخ؟

بدافع الفضول: كيف تحدد المملكة المتحدة مقدمي الخدمات الصغار والمتوسطين والكبار؟

إعجاب واحد (1)

أنا مهتم أيضًا، لذا إذا تمكن أي شخص من معرفة ذلك، فأود أن أعرف ذلك أيضًا. على الرغم من أنني لا أستطيع العثور على تعريف محدد، يبدو أن الخدمات ذات الأحجام المختلفة تُعامل بشكل مختلف قليلاً عن مقدمي الخدمات الأكبر. “نحن لا نطلب من الخدمات الصغيرة ذات الوظائف المحدودة اتخاذ نفس الإجراءات التي تتخذها أكبر الشركات.” Gov.uk، الفقرة 6

إعجاب واحد (1)

هل يمكن لبرنامج المنتدى توفير قائمة بإجراءات المشرفين على مدار عام بسهولة؟ أو ربما إجراءات المشرفين مصفاة حسب، على سبيل المثال، الاستجابة للعلامات؟ لا أرغب في الاحتفاظ بسجل منفصل. (أحيانًا أقوم بحذف مستخدم بسبب علامة - وهذا ليس خيارًا عند الاستجابة لعلامة.)

إعجاب واحد (1)

لا، وأخشى أنه من غير المرجح أن نقدمها. كما هو الحال مع اللائحة العامة لحماية البيانات (GDPR)، فإننا نوفر الأدوات اللازمة للامتثال، ولكن ستحتاج إلى الحصول على مشورتك القانونية الخاصة.

إعجابَين (2)

هناك مناقشة على HN هنا (تتعلق بحالة محددة قرر فيها شخص يدير 300 منتدى إغلاقها جميعًا) تحتوي على معلومات مفيدة وروابط للمستندات الرسمية.

على حد علمي، فإن 700 ألف مستخدم نشط شهريًا في المملكة المتحدة هو الحد الأدنى للمتوسط. و 7 ملايين هو الحد الأدنى للكبير.

لاحظ، أعتقد، أن بعض جوانب القانون ليست حساسة لحجم الخدمة، بينما البعض الآخر حساس.

لمزيد من المعلومات، انظر
(مسودة) مدونة قواعد الممارسات للمحتوى غير القانوني للخدمات من مستخدم إلى مستخدم (رابط Ofcom)

أعتقد أن هذه حالة يكون فيها الخطر على أصحاب المنتديات منخفض الاحتمال ولكنه مكلف للغاية. سيكون الحكم الفردي، وإدراك المخاطر، والموقف تجاه المخاطر قيد اللعب.

إعجابَين (2)

شكرا لك. لذا، فهو ينطبق على قليلين فقط، بكامل قوته على أي حال.

أحد أصدقائي الذين يعيشون في المملكة المتحدة هو سبب جزئي لاهتمامي، لأنها تصاب بالذعر كثيرًا بسبب هذا.

إليك إرشادات تقييم المخاطر: https://www.ofcom.org.uk/siteassets/resources/documents/online-safety/information-for-industry/illegal-harms/risk-assessment-guidance-and-risk-profiles.pdf?v=387549

إعجابَين (2)

شكراً هوك. (أرى أن رابط ملف PDF يؤدي إلى أحدث إصدار، على الرغم من أنه يبدو كرابط لإصدار معين.)

هنا وصف معقول (ولكن ليس رسميًا) لما قد تعنيه القوانين الجديدة للمنتديات الصغيرة المستضافة ذاتيًا والتي لا تستهدف الأطفال على وجه التحديد أو تقدم مواد إباحية. النقطة الرئيسية، أعتقد، هي فهم القانون وتوثيق نهجك. من هناك:

الواجبات

كخدمة صغيرة من مستخدم إلى مستخدم، يتطلب منك قانون السلامة عبر الإنترنت (OSA) ما يلي:

  • تقييم مخاطر المحتوى غير القانوني (s9)
  • اتخاذ تدابير متناسبة للتخفيف من مخاطر المحتوى غير القانوني التي حددتها (s10(2)(c))
  • اتخاذ تدابير متناسبة لمنع الأشخاص من مواجهة المحتوى ذي الأولوية (s10(2)(a))
  • اتخاذ تدابير متناسبة للتخفيف من مخاطر ارتكاب الأشخاص لجرائم ذات أولوية (s10(2)(b))
  • السماح للمستخدمين بالإبلاغ بسهولة عن المحتوى غير القانوني والمحتوى الضار بالأطفال، وإزالته (s20)
  • السماح للمستخدمين بالشكوى بشأن التقارير والإزالات وما إلى ذلك (s21)
  • “إيلاء اعتبار خاص لأهمية حماية حق المستخدمين في حرية التعبير” (s22(2))

لست بحاجة إلى القلق كثيرًا بشأن هذه الواجبات مباشرة - فإن عملية تقييم المخاطر ترشدك خلال ما تحتاج إلى القيام به للامتثال لها.

إعجابَين (2)

يجب أن يكون الجميع الآن قد حصل على جميع المعلومات المطلوبة من OfCom لإجراء تقييمات المخاطر. بمجرد أن تقوم بإجراء تقييم المخاطر الخاص بك، ستتمكن من إعداد قائمة بالمخاطر المحددة التي قد ترغب في تقليلها. أنا واثق تمامًا من أن لدينا جميع الأدوات اللازمة، ولكن إذا كان أي أحد غير متأكد، يمكننا مناقشة الأمر هنا.

3 إعجابات

هل لديك مرجع لهذا؟ لقد أجرينا بحثًا مكثفًا ولم نتمكن من العثور على أي شيء يحدد عدد المستخدمين لـ “الحجم” (وهو بصراحة أحد أكبر شكواي بشأن قانون الممارسات التجارية العادلة كما هو مكتوب).

إعجابَين (2)

وجدت أيضًا أن أحد أصعب الأمور هو تحديد ذلك. لم أكن متأكدًا مما إذا كنا مسؤولين عن تقييم المخاطر على Meta (كمديرين للمجتمع)، أو مخاطر استخدام Discourse بشكل أكثر عمومية (المخاطر لعملائنا).

إذا كان الأمر الأخير، لم أكن أعرف في أي فئة حجم سيضعنا ذلك. اتضح أنه كان الأول.

ما تعلمناه في ندوة هو أن Ofcom قد تواصلت بالفعل مع المنصات التي تعتقد أنها تقع حاليًا ضمن فئة تتطلب أكثر من تقييم ذاتي سنوي، وأبلغتهم أنه سيتعين عليهم تقديم تقييمهم بشكل رسمي. إذا لم تتواصل معك، أعتقد أنه يمكنك الافتراض أنك مطلوب منك إجراء تقييم ذاتي، وإكمال أي تدابير مخففة، وإعادة التقييم سنويًا أو عند حدوث تغييرات كبيرة في النطاق. ستحتاج إلى أن تكون قادرًا على إظهار عمل تقييمك إذا طُلب منك، ولكنك لست مضطرًا لتقديمه في أي مكان.

ولكن لاحظ أني جديد في هذا الأمر أيضًا كما أنتم، لذا يرجى اعتبار هذا رأيي، وليس نصيحة للامتثال. ستحتاج إلى إجراء بحثك الخاص.

5 إعجابات

لقد تحققت للتو من مسودة التوجيهات الحالية وهي تحدد “كبير” ولكن ليس “متوسط”. لكنها تحتوي في عدة أماكن على ملاحظات للخدمات التي تضم 700 ألف مستخدم، على سبيل المثال:

إعجاب واحد (1)

كان هناك ندوة عبر الإنترنت من OfCom بعنوان “الامتثال للويب المستقل والمجتمعي” لمواقعنا، راجع هذا الرابط للملاحظات والروابط ومقاطع الفيديو:

مرحباً @HAWK، تساءلت عما إذا كان من الممكن الحصول على صفحة بسيطة واحدة (أو منشور في المنتدى) توثق كيف تعالج وظائف Discourse المشكلات المثارة؟

حاليًا، أشير بشكل مجزأ إلى ردودك في هذا الموضوع، ومنشورات أخرى حول الإبلاغ عن محتوى غير قانوني، و المشرفين في قنوات الدردشة وما إلى ذلك كجزء من أدلتنا، قد يكون من المفيد قليلاً ربما لو كانت هناك صفحة “رسمية” تسرد الوظائف الأساسية التي يقدمها المنتج نفسه حتى يمكن الإشارة إليها كدليل؟ ربما يكون من المفيد أيضًا للأشخاص الذين يراجعون المنصة أن يكون لديهم ثقة في أنها تلبي المتطلبات.

إعجاب واحد (1)

مرحبًا روث،
أنا سعيد للمساعدة ولكنني بحاجة إلى توضيح شيء أولاً.

[اقتباس=“روث تشيزلي، المنشور:26، الموضوع:342713، اسم المستخدم:RCheesley”]
كيف تعالج وظيفة ديسكوريس المسائل المثارة؟
[/اقتباس]
ما هي المسائل التي تشير إليها بالتحديد؟ تلك التي حددتها في تقييم المخاطر الخاص بك؟ إذا كانت هذه الحالة، فلا تتردد في سرد الأمور التي تحاول تقليلها وسأساعدك باقتراحات الأدوات.

سيكون لدى الجميع مخاطر مختلفة لمعالجتها ومستويات تحمل مختلفة لهذه المخاطر. لذلك، لا يمكنني نشر قائمة نهائية من نوع ما. على سبيل المثال، لا نسمح للأطفال تحت سن 13 على ميتا لذلك ليست هناك حاجة لمعالجة العديد من المخاطر العالية المتعلقة بالأطفال.

إذا كنت سعيدًا بمشاركة تقييمك، فإنني سعيد باستخدامه كمثال.

إعجابَين (2)

لكل من لا يعرف من أين يبدأ، هذه الأداة ترشدك خلال العملية.

https://www.ofcom.org.uk/os-toolkit/assessment-tool/

3 إعجابات