mir ist bewusst, dass der Online Safety Act im November 2023 in Großbritannien in Kraft getreten ist. Ich frage mich, ob Discourse neue Funktionen einführt, um dieses neue Gesetz zu unterstützen und Online-Communitys für Personen unter 18 Jahren sicherer zu machen?
Ich bin gerade auf eine bevorstehende Diskussionsrunde gestoßen, die für Discourse-Leute von Interesse sein könnte:
„Promising Trouble veranstaltet eine Mittagssitzung mit Ali Hall und Andrew Park von Ofcom, um die neuen Online-Sicherheitsverantwortlichkeiten für kleine, risikoarme Community-Websites zu besprechen.“
Ich arbeite gerade die Compliance für das OSA durch.
Während der Großteil der Arbeit darin zu bestehen scheint, zu dokumentieren, dass die Organisation das Risiko illegaler Schäden berücksichtigt und versucht hat, es zu mindern, habe ich mich gefragt, ob jemand hierfür teilbare Dokumentationen oder automatisierte Werkzeuge entwickelt hat, um eine Beweisgrundlage für das Fehlen schädlicher Aktivitäten in seinem Forum zu liefern?
Ich dachte dabei vielleicht an:
Abfragen im Daten-Explorer, die nach bestimmten Schlüsselwörtern oder Nutzungsmustern suchen?
Listen von beobachteten Wörtern, die die Kennzeichnung von Beiträgen und privaten Nachrichten verbessern könnten?
Discourse AI-Konfigurationen oder Prompts, die helfen könnten, besorgniserregende Aktivitäten zu kennzeichnen?
Vorlagen für verbesserte „UK OSA-genehmigte“ Nutzungsbedingungen?
Andere „Sysadmin-Tipps und Tricks“ zur Maximierung der Effektivität der Schutzmaßnahmen bei minimalem zusätzlichem Arbeitsaufwand?
Ich mache mir genauso viele Sorgen über die Datenschutzimplikationen all dessen wie jeder andere auch, aber im Falle einer Prüfung müssten wir nachweisen können, dass wir angemessene Anstrengungen unternommen haben, um zu überprüfen, dass nichts Illegales vor sich ging, und diese Beweise jährlich vorlegen (und überprüfen) können.
Beobachtete Wörter klingt nach einer guten Idee, obwohl es natürlich ein stumpfes Instrument ist.
Ich könnte einen Prozess der regelmäßigen Überprüfung der Nutzung von Benutzer-zu-Benutzer-Nachrichten dokumentieren. Aber das funktioniert für mich, weil meine Benutzer die Funktion kaum nutzen.
/admin/reports/user_to_user_private_messages
Ein Anstieg dieser Nachrichten könnte auf ein erhöhtes Risiko hindeuten, und ich bräuchte eine Reaktion darauf. Ich bin mir nicht sicher, was es zwischen den Extremen gibt:
Benutzer werden Administratoren informieren, wenn Nachrichten problematisch sind
Administratoren werden einige (oder alle) Nachrichten lesen, um zu prüfen, ob sie nicht problematisch sind
Persönlich möchte ich keine automatisierte Analyse, die sowohl falsch-negative als auch falsch-positive Ergebnisse liefert.
Ich würde (werde) mich auf einfache Aussagen konzentrieren, die mein Forum auf allen Achsen als sehr geringes Risiko positionieren. Eine proportionale Überprüfung bedeutet daher, nichts zu tun, oder wenn etwas, dann etwas sehr Minimales und Einfaches. Sich auf Flaggen zu verlassen ist einfach und unkompliziert.
Ich habe gerade damit begonnen, ein selbst gehostetes Discourse für unsere Community einzurichten, und dies ist auch ein Anliegen, das meinerseits aufkam. Viele Websites implementieren eine ID-Verifizierung, um rechtliche Probleme zu umgehen.
Unsere Community wird mit einem Mindestalter von 16 Jahren beginnen und in Großbritannien gehostet. Obwohl dies die Meldung von illegalen Dingen betrifft, erinnere ich mich, dass dies ein Dienst ist, der von Erwachsenen genutzt wird, und wir müssen konform sein. Gibt es weitere Tools, die dabei helfen, oder erfüllt es derzeit die Gesetzesänderungen?