Online Safety Act (Neue Ofcom-Regeln)

Nachdem ich mich mit @RCheesley etwas mehr darüber unterhalten habe, ist mir klar geworden, dass ich auch eine Liste von Abhilfemaßnahmen/Strategien teilen könnte, ohne sie mit spezifischen Risiken zu verknüpfen.

Ich schlage nicht vor, dass alle Communities all diese Dinge nutzen sollten oder dass es keine anderen Dinge gibt, die sie nutzen sollten. Dies ist keine definitive Liste. Wenn jemand das Gefühl hat, ein inakzeptables Maß an ungemildertem Risiko zu haben, kann er hier gerne posten und wir können Optionen besprechen.

Hier ist also die Liste, in keiner bestimmten Reihenfolge:

  • Nutzungsbedingungen, die Folgendes sind:
    • umfassend
    • relevant
    • aktuell
    • leicht zu finden und zugänglich
  • Nutzungsbedingungen, die Folgendes beinhalten können:
    • speziell die Bereitstellung oder Anforderung von Daten von Kindern ausschließen
    • die Sichtbarkeit aller Inhalte (einschließlich privater Nachrichten und Chats) für Administratoren bekannt geben
  • Interne Whistleblowing-Richtlinien
  • Robuste Moderationspraktiken, die von geschultem Personal durchgeführt werden und Folgendes umfassen können:
    • die schnelle Entfernung illegaler Inhalte
    • Erzwingung der manuellen Registrierungszustimmung
    • Verpflichtende Rich-Profile mit erzwungenen Feldern, einschließlich echter Namen
    • Entfernung von Konten verbotener Organisationen
    • proaktive Moderation von Benutzerprofilen
    • Deaktivierung von Benutzer-zu-Benutzer-Nachrichten und Chats
  • Die Option zum Melden illegaler Inhalte, die anonymen Benutzern zur Verfügung steht
  • Vertrauensstufen
  • Beobachtete Wörter
  • KI-Triage
  • Sichere Uploads
  • Langsamer Modus
  • Themen-Timer können in einigen Fällen nützlich sein
6 „Gefällt mir“

Dies scheint ein Bereich zu sein, in dem Discourse mehr Funktionsunterstützung bieten könnte.

Standardmäßig erlaubt Discourse private Nachrichten auf Vertrauensstufe 1, die Benutzer automatisch erreichen können, ohne Eingreifen von Moderatoren, indem sie 30 Beiträge in 5 Themen über 10 Minuten lesen.

Die meisten Forenmoderatoren lesen private Nachrichten nur, wenn jemand im Thread einen Beitrag markiert. Wenn also zwei Personen keine Einwände gegen die Kommunikation per PM haben (z. B. einvernehmlich Pornografie austauschen oder erfolgreich einen Minderjährigen manipulieren), werden Moderatoren nicht markiert und der Thread wird nicht überprüft.

Es wäre ein guter erster Schritt, den Zugriff auf private Nachrichten auf Benutzer beschränken zu können, die bestätigen, dass sie über 18 Jahre alt sind. (Dies könnte ein einfaches Kontrollkästchen sein oder einen altersgerechten Mechanismus enthalten, der dem Online Safety Act entspricht.)

Derzeit scheint unser einziges verfügbares Werkzeug darin zu bestehen, Mitgliedern einer bestimmten Gruppe das Senden von PMs zu gestatten, was bedeutet, dass Benutzer zur Gruppenseite navigieren und auf „Anfordern“ klicken müssten, um den Zugriff auf die Gruppe anzufordern. (Und sie müssten diesen Button finden, eine hohe Anforderung.) Und dann müsste ein Moderator den Benutzer manuell zur Gruppe hinzufügen.

Gibt es etwas Besseres, das wir tun können?

2 „Gefällt mir“

Sie können ein benutzerdefiniertes Benutzerfeld erstellen und eine Automatisierung verwenden, die Benutzer, die dieses Kontrollkästchen aktivieren, automatisch zu einer Gruppe hinzufügt.

Und dann erlauben Sie dieser Gruppe, persönliche Nachrichten zu initiieren.

Dies verhindert jedoch nicht, dass Benutzer, die eine Nachricht erhalten haben, persönliche Nachrichten empfangen und darauf antworten können.

2 „Gefällt mir“

Das wusste ich nicht. Können TL0-Benutzer im Allgemeinen auf private Nachrichten antworten, die sie erhalten?

Sie können beobachtete Wörter verwenden, um dieses Risiko zu mindern.

2 „Gefällt mir“