Dopo aver chiacchierato un po’ di più con @RCheesley, mi sono reso conto che un’altra cosa utile che potrei fare è condividere un elenco di strumenti/strategie di mitigazione, senza associarli a rischi specifici.
Non sto suggerendo che tutte le community debbano utilizzare tutte queste cose, o che non ci siano altre cose che dovrebbero utilizzare. Questo non è inteso come un elenco definitivo. Se qualcuno ritiene di avere un livello inaccettabile di rischio non mitigato, è libero di postare qui e possiamo discutere le opzioni.
Quindi ecco l’elenco, in nessun ordine particolare:
Termini di servizio che sono:
completi
pertinenti
aggiornati
facili da trovare e consultare
Termini di servizio che possono:
escludere specificamente la fornitura o la sollecitazione di dati da parte di bambini
pubblicizzare la visibilità per gli amministratori di tutti i contenuti (inclusi i messaggi privati e le chat)
Politiche interne di segnalazione
Pratiche di moderazione robuste intraprese da personale qualificato e possono includere:
la rapida rimozione di contenuti illegali
l’approvazione manuale della registrazione forzata
la richiesta di profili completi con campi obbligatori, inclusi i nomi reali
la rimozione di account di organizzazioni proscritte
la moderazione proattiva dei profili utente
la disabilitazione della messaggistica e della chat tra utenti
Questa sembra un’area in cui Discourse potrebbe offrire maggiore supporto alle funzionalità.
Per impostazione predefinita, Discourse consente la messaggistica privata al Livello di Fiducia 1, che gli utenti possono raggiungere automaticamente, senza intervento del moderatore, leggendo 30 post in 5 argomenti nell’arco di 10 minuti.
La maggior parte dei moderatori del forum legge i messaggi privati solo se qualcuno nel thread segnala un post. Quindi, se due persone non si oppongono a comunicare tramite messaggi privati (ad esempio, scambiandosi consensualmente materiale pornografico o adescando con successo un minore), i moderatori non verranno segnalati e il thread non verrà esaminato.
Sarebbe un buon primo passo poter limitare l’accesso ai messaggi privati agli utenti che affermano di avere più di 18 anni. (Potrebbe essere una semplice casella di controllo, oppure potrebbe includere un meccanismo di verifica dell’età conforme all’Online Safety Act.)
Al momento sembra che il nostro unico strumento disponibile sia consentire ai membri di uno specifico gruppo di inviare messaggi privati, il che significa che gli utenti dovrebbero navigare fino alla pagina del gruppo e fare clic su “Richiedi” per richiedere l’accesso al gruppo. (E dovrebbero trovare quel pulsante, un’impresa ardua.) E poi un moderatore dovrebbe aggiungere manualmente l’utente al gruppo.
Puoi creare un campo utente personalizzato e utilizzare un’automazione che aggiunge automaticamente gli utenti che selezionano quella casella di controllo a un gruppo.
E poi consentire a quel gruppo di avviare messaggi personali.
Ma questo non impedirà agli utenti che hanno ricevuto messaggi di ricevere e rispondere a messaggi personali.