Il governo del Regno Unito sta pianificando di modificare le leggi sulla sicurezza online e mi chiedevo quali misure stia adottando Discourse per affrontarlo o se ci sia una risposta suggerita per chiunque ospiti nel Regno Unito?
La nostra community sta esaminando la questione, ma non mi è chiaro se l’onere ricada su di noi o su Discourse, il che in teoria significherebbe che ogni gruppo WhatsApp o server Discord dovrebbe farlo.
Grazie in anticipo per qualsiasi aiuto (ho controllato ma non sono riuscito a trovare un thread recente su questo argomento).
Dal sito web di Ofcom: “le aziende sono ora legalmente obbligate ad agire per contrastare le attività criminali sulle loro piattaforme”
Penso che Discourse fornisca già un modo per contrastare le attività criminali con il flag ‘È illegale’ per avvisare il personale di attività illegali sul sito. Realisticamente, a parte l’implementazione di misure come l’opzione del flag illegale, c’è molto altro che si può fare?
Sì, ci stiamo lavorando. Lo stiamo monitorando da quasi tutto l’anno e siamo preparati.
Riguarda entrambi. Noi forniamo gli strumenti per conformarsi all’OSA (perché dobbiamo conformarci qui su Meta), ma voi siete responsabili di come li utilizzate.
Le considerazioni chiave sono:
Abbiamo questo con il flag per contenuti illegali che @ondrej ha postato sopra, il quale dovrebbe indurvi a utilizzare gli strumenti esistenti per rimuovere il contenuto in modo conforme e a effettuare le segnalazioni appropriate.
Come sopra: il flag per contenuti illegali o altri tipi di flag personalizzati sono disponibili per il vostro utilizzo. Stiamo apportando una modifica in modo che anche gli utenti non registrati possano segnalare contenuti illegali. Abbiamo una data di rilascio per questo, @tobiaseigen?
Dovrete definire voi stessi i vostri processi interni, ma i dati sono tutti registrati in modo da poterli segnalare quando necessario.
Sono interessato anch’io, quindi se qualcuno riesce a scoprirlo, vorrei saperlo anch’io. Sebbene non riesca a trovare una definizione specifica, sembra che i servizi di diverse dimensioni vengano trattati in modo leggermente diverso rispetto ai maggiori fornitori di servizi. “Non stiamo richiedendo a piccoli servizi con funzionalità limitate di intraprendere le stesse azioni delle più grandi società.” Gov.uk, par. 6
Il software del forum può fornire facilmente un elenco delle azioni dei moderatori nel corso di un anno? O forse azioni dei moderatori filtrate, ad esempio, per risposta ai flag? Non vorrei dover tenere un registro separato. (A volte eliminerò un utente a causa di un flag, questa non è un’opzione quando si risponde a un flag.)
No e temo che sia improbabile che li forniremo. Come per il GDPR, forniamo gli strumenti per conformarci, ma sarà necessario richiedere la propria consulenza legale.
C’è una discussione su HN qui (riguardo a un caso specifico in cui una persona che gestisce 300 forum ha deciso di chiuderli tutti) che contiene informazioni utili e link a documenti ufficiali.
Per quanto ne so, 700 mila utenti mensili attivi nel Regno Unito è la soglia per i medi. 7 milioni è la soglia per i grandi.
Nota che, credo, alcuni aspetti della legge non sono sensibili alle dimensioni del servizio, mentre altri lo sono.
Penso che questo sia un caso in cui il rischio per i proprietari di forum è a bassa probabilità ma ad alto costo. Entreranno in gioco il giudizio individuale e la percezione del rischio e l’atteggiamento verso il rischio.
Grazie Hawk. (Vedo che il link al PDF rimanda all’ultima versione, nonostante sembri un link a una versione specifica.)
Ecco una descrizione sensata (ma non autorevole) di cosa potrebbero significare le nuove leggi per i forum self-hosted su piccola scala che non si rivolgono specificamente ai bambini o non offrono materiale pornografico. Il punto principale, penso, è capire la legge e documentare il proprio approccio. Da lì:
Doveri
Come piccolo servizio utente-a-utente, l’OSA richiede di:
Adottare misure proporzionate per mitigare i rischi di contenuti illegali identificati (s10(2)(c))
Adottare misure proporzionate per impedire alle persone di incontrare contenuti prioritari(s10(2)(a))
Adottare misure proporzionate per mitigare il rischio che le persone commettano reati prioritari(s10(2)(b))
Consentire agli utenti di segnalare facilmente contenuti illegali e contenuti dannosi per i bambini, e rimuoverli (s20)
Consentire agli utenti di presentare reclami riguardo a segnalazioni, rimozioni, ecc. (s21)
“Prestare particolare attenzione all’importanza di proteggere il diritto degli utenti alla libertà di espressione” (s22(2))
Non devi preoccuparti troppo di questi doveri direttamente: il processo di valutazione del rischio ti guiderà attraverso ciò che devi fare per conformarti ad essi.
A questo punto tutti dovrebbero avere tutte le informazioni necessarie da OfCom per effettuare le valutazioni del rischio. Una volta completata la valutazione del rischio, avrai un elenco dei rischi identificati che potresti voler mitigare. Sono abbastanza sicuro che abbiamo tutti gli strumenti necessari, ma se qualcuno non è sicuro possiamo discuterne qui.
Hai un riferimento per questo? Abbiamo cercato a lungo e non siamo riusciti a trovare nulla che definisse il numero di utenti per “dimensione” (che, onestamente, è una delle mie più grandi lamentele riguardo all’OSA così com’è scritta.)
Ho anche scoperto che una delle cose più difficili da accertare. Non ero sicuro se fossimo responsabili di valutare il rischio su Meta (come amministratori della comunità), o del rischio di usare Discourse più in generale (il rischio per i nostri clienti).
Se fosse quest’ultimo, non sapevo in quale categoria di dimensione ci rientrasse. Risultato che era il primo.
Quello che abbiamo appreso a un seminario è che Ofcom si è già messo in contatto con le piattaforme che attualmente ritiene rientrare in una categoria che richiede qualcosa di più di una valutazione autonoma annuale e ha comunicato loro che dovranno presentare formalmente la loro valutazione. Se non sei stato contattato, puoi presumere che è necessario fare la tua autovalutazione, completare eventuali mitigazioni e riconsiderare annualmente o al verificarsi di cambiamenti significativi nel profilo. Dovrai essere in grado di dimostrare il lavoro di valutazione se richiesto, ma non è necessario inviarlo da nessuna parte.
Ma nota che sono altrettanto nuovo a questo come voi, quindi si prega di considerare questa la mia opinione, piuttosto che un consiglio di conformità. Dovrete fare le vostre ricerche.
Ho appena controllato la bozza di linee guida attuale e definisce “grandi” ma non “medie”. Tuttavia, in diversi punti ci sono note per servizi con 700.000 utenti, ad esempio:
Ciao @HAWK , mi chiedevo se fosse possibile avere una pagina singola (o un post sul forum) che documenti come la funzionalità di Discourse affronta i problemi sollevati?
Attualmente sto indicando frammentariamente le tue risposte in questo thread, altri post sulla segnalazione di contenuti illegali, amministratori nei canali di chat ecc. come parte della nostra documentazione, sarebbe forse un po’ più utile se ci fosse una pagina ‘ufficiale’ che elencasse le funzioni principali che il prodotto stesso offre in modo che possa essere citata come prova? Forse sarebbe utile anche per coloro che esaminano la piattaforma avere la certezza che soddisfi i requisiti.
Ciao Ruth,
Sono felice di aiutarti, ma prima devo chiarire una cosa.
A quali problemi ti riferisci specificamente? Quelli che hai identificato nella tua valutazione del rischio? Se è così, sentiti libera di elencare le cose che stai cercando di mitigare e posso aiutarti con suggerimenti sugli strumenti.
Ognuno avrà rischi diversi da mitigare e diversi livelli di tolleranza per tali rischi. Pertanto, non posso pubblicare alcun tipo di elenco definitivo. Ad esempio, non consentiamo ai bambini di età inferiore ai 13 anni su Meta, quindi non abbiamo bisogno di mitigare molti dei rischi elevati relativi ai bambini.
Se sei disposta a condividere la tua valutazione, sarò felice di usarla come esempio.