Legge sulla sicurezza online (nuove norme OfCom)

Dopo aver chiacchierato un po’ di più con @RCheesley, mi sono reso conto che un’altra cosa utile che potrei fare è condividere un elenco di strumenti/strategie di mitigazione, senza associarli a rischi specifici.

Non sto suggerendo che tutte le community debbano utilizzare tutte queste cose, o che non ci siano altre cose che dovrebbero utilizzare. Questo non è inteso come un elenco definitivo. Se qualcuno ritiene di avere un livello inaccettabile di rischio non mitigato, è libero di postare qui e possiamo discutere le opzioni.

Quindi ecco l’elenco, in nessun ordine particolare:

  • Termini di servizio che sono:
    • completi
    • pertinenti
    • aggiornati
    • facili da trovare e consultare
  • Termini di servizio che possono:
    • escludere specificamente la fornitura o la sollecitazione di dati da parte di bambini
    • pubblicizzare la visibilità per gli amministratori di tutti i contenuti (inclusi i messaggi privati e le chat)
  • Politiche interne di segnalazione
  • Pratiche di moderazione robuste intraprese da personale qualificato e possono includere:
    • la rapida rimozione di contenuti illegali
    • l’approvazione manuale della registrazione forzata
    • la richiesta di profili completi con campi obbligatori, inclusi i nomi reali
    • la rimozione di account di organizzazioni proscritte
    • la moderazione proattiva dei profili utente
    • la disabilitazione della messaggistica e della chat tra utenti
  • L’opzione di segnalazione per contenuti illegali resa disponibile agli utenti anonimi
  • Livelli di fiducia
  • Parole monitorate
  • Smistamento AI
  • Caricamenti sicuri
  • Modalità lenta
  • I timer degli argomenti possono essere utili in alcune circostanze
6 Mi Piace

Questa sembra un’area in cui Discourse potrebbe offrire maggiore supporto alle funzionalità.

Per impostazione predefinita, Discourse consente la messaggistica privata al Livello di Fiducia 1, che gli utenti possono raggiungere automaticamente, senza intervento del moderatore, leggendo 30 post in 5 argomenti nell’arco di 10 minuti.

La maggior parte dei moderatori del forum legge i messaggi privati solo se qualcuno nel thread segnala un post. Quindi, se due persone non si oppongono a comunicare tramite messaggi privati (ad esempio, scambiandosi consensualmente materiale pornografico o adescando con successo un minore), i moderatori non verranno segnalati e il thread non verrà esaminato.

Sarebbe un buon primo passo poter limitare l’accesso ai messaggi privati agli utenti che affermano di avere più di 18 anni. (Potrebbe essere una semplice casella di controllo, oppure potrebbe includere un meccanismo di verifica dell’età conforme all’Online Safety Act.)

Al momento sembra che il nostro unico strumento disponibile sia consentire ai membri di uno specifico gruppo di inviare messaggi privati, il che significa che gli utenti dovrebbero navigare fino alla pagina del gruppo e fare clic su “Richiedi” per richiedere l’accesso al gruppo. (E dovrebbero trovare quel pulsante, un’impresa ardua.) E poi un moderatore dovrebbe aggiungere manualmente l’utente al gruppo.

C’è qualcosa di meglio che possiamo fare?

2 Mi Piace

Puoi creare un campo utente personalizzato e utilizzare un’automazione che aggiunge automaticamente gli utenti che selezionano quella casella di controllo a un gruppo.

E poi consentire a quel gruppo di avviare messaggi personali.

Ma questo non impedirà agli utenti che hanno ricevuto messaggi di ricevere e rispondere a messaggi personali.

2 Mi Piace

Non credo di saperlo. In generale, gli utenti TL0 possono rispondere ai messaggi privati che ricevono?

Puoi utilizzare le parole monitorate per mitigare questo rischio.

2 Mi Piace