Dopo aver chiacchierato un po’ di più con @RCheesley, mi sono reso conto che un’altra cosa utile che potrei fare è condividere un elenco di strumenti/strategie di mitigazione, senza associarli a rischi specifici.
Non sto suggerendo che tutte le community debbano utilizzare tutte queste cose, o che non ci siano altre cose che dovrebbero utilizzare. Questo non è inteso come un elenco definitivo. Se qualcuno ritiene di avere un livello inaccettabile di rischio non mitigato, è libero di postare qui e possiamo discutere le opzioni.
Quindi ecco l’elenco, in nessun ordine particolare:
- Termini di servizio che sono:
- completi
- pertinenti
- aggiornati
- facili da trovare e consultare
- Termini di servizio che possono:
- escludere specificamente la fornitura o la sollecitazione di dati da parte di bambini
- pubblicizzare la visibilità per gli amministratori di tutti i contenuti (inclusi i messaggi privati e le chat)
- Politiche interne di segnalazione
- Pratiche di moderazione robuste intraprese da personale qualificato e possono includere:
- la rapida rimozione di contenuti illegali
- l’approvazione manuale della registrazione forzata
- la richiesta di profili completi con campi obbligatori, inclusi i nomi reali
- la rimozione di account di organizzazioni proscritte
- la moderazione proattiva dei profili utente
- la disabilitazione della messaggistica e della chat tra utenti
- L’opzione di segnalazione per contenuti illegali resa disponibile agli utenti anonimi
- aggiungendo informazioni alla finestra di segnalazione
- Livelli di fiducia
- Parole monitorate
- Smistamento AI
- Caricamenti sicuri
- Modalità lenta
- I timer degli argomenti possono essere utili in alcune circostanze