Online Safety Act - Quali nuove funzionalità saranno disponibili?

Ciao a tutti,

Sono a conoscenza del fatto che l’Online Safety Act è entrato in vigore nel Regno Unito nel novembre 2023. Mi chiedo se Discourse stia lanciando nuove funzionalità per supportare questa nuova legge e aiutare a rendere le comunità online più sicure per i minori di 18 anni?

Grazie!

7 Mi Piace

:wave:

È stata aggiunta una nuova opzione di flag “È illegale”.

5 Mi Piace

Posso avere un link per la revisione? Sono curioso di vedere cosa comportano le modifiche nel Regno Unito.

3 Mi Piace

C’è una spiegazione qui

3 Mi Piace

Ho appena trovato una sessione di discussione imminente che potrebbe interessare gli utenti di Discourse:

  • “Promising Trouble sta ospitando una sessione per il pranzo con Ali Hall e Andrew Park di Ofcom per discutere le nuove responsabilità sulla sicurezza online per siti comunitari piccoli e a basso rischio.” *

Mercoledì 12 febbraio 2025 – 6:30 - 8:00 CST

Ci sono post interessanti su questo argomento qui:

Al momento sto lavorando alla conformità per l’OSA

Mentre la maggior parte del lavoro sembra consistere nel documentare che l’organizzazione ha considerato e tentato di mitigare il rischio di danni illegali, mi chiedevo se qualcuno avesse sviluppato documentazione condivisibile o strumenti automatizzati per aiutare a fornire una base di prove per una mancanza di attività nefaste all’interno del proprio forum?

Stavo pensando forse a:

  • Query di Esplorazione Dati che cercano parole chiave o modelli di utilizzo specifici?
  • Elenchi di Parole Monitorate che potrebbero migliorare la segnalazione di post e messaggi privati?
  • Configurazioni o prompt di Discourse AI che potrebbero aiutare a segnalare attività preoccupanti?
  • Modelli per termini di servizio migliorati “Approvati dall’OSA del Regno Unito”?
  • Altri “suggerimenti e trucchi per sysadmin” per massimizzare l’efficacia delle protezioni, con il minimo lavoro aggiuntivo?

Sono preoccupato quanto chiunque altro per le implicazioni sulla privacy di tutto ciò, ma in caso di audit dovremmo essere in grado di dimostrare di aver investito uno sforzo appropriato nel verificare che non stesse accadendo nulla di illegale, e di poter presentare (e rivedere) queste prove annualmente.

Le parole monitorate sembrano una buona idea, anche se ovviamente è uno strumento rozzo.

Potrei scegliere di documentare un processo di controllo periodico sull’uso dei messaggi da utente a utente. Ma questo funziona per me perché i miei utenti utilizzano a malapena la struttura.
/admin/reports/user_to_user_private_messages

Se ci fosse un aumento di questi messaggi, potrebbe indicare un rischio elevato e avrei bisogno di una risposta. Non sono sicuro di cosa ci sia tra gli estremi di:

  • gli utenti informeranno gli amministratori se i messaggi sono problematici
  • gli amministratori leggeranno alcuni (o tutti) i messaggi per verificare che non siano problematici

Personalmente non voglio un’analisi automatizzata che avrebbe falsi negativi oltre a falsi positivi.

Mi concentrerei (e mi concentrerò) su semplici dichiarazioni che posizionano il mio forum come a rischio molto basso su tutti gli assi. Il controllo proporzionato è quindi non fare nulla, o se fare qualcosa, allora qualcosa di molto minimale e facile. Affidarsi ai flag è semplice e facile.

1 Mi Piace

Ho appena iniziato a configurare un discourse self-hosted per la nostra community e questa è una preoccupazione sollevata anche da me; molti siti stanno implementando la verifica dell’identità per aggirare qualsiasi questione legale. La nostra community inizierà con un’età minima di 16 anni e sarà ospitata nel Regno Unito. Sebbene quella sia la funzione di segnalazione per riportare qualcosa di illegale, mi ricordo che questo è un servizio utilizzato da adulti e dobbiamo essere conformi.

Ci saranno altri strumenti in arrivo per aiutare con questo o soddisfa attualmente le modifiche alla legge?

Qualcuno ha integrato con successo servizi di verifica dell’età?

1 Mi Piace