Tutte le piattaforme passate e attuali condividono fallimenti nella moderazione.
In un’ipotetica comunità Shangri-La, la moderazione viene condotta a livello individuale internamente, senza la necessità di membri dell’autorità o sistemi di segnalazione… Tuttavia, l’umanità non ha raggiunto quel livello di illuminazione.
Mettere in atto controlli neutrali per aiutare a ridurre i pregiudizi personali nella moderazione è fondamentale. Come spesso dimostrato nei governi, senza controlli o audit successivi dovuti alla mancanza di controlli. Spesso il potere corrompe anche gli individui più ben intenzionati. Anche se non tutti.
Ma Tolkien disse che anche il cuore più puro alla fine inizierebbe a essere corrotto dall’unico anello.
La rimozione della tentazione rimuove la possibilità di vacillare.
Sono in giro dai tempi delle reti Fido durante i giorni dei BBS DOS. La storia si ripete sia perché non si impara dal passato sia perché si limita il nostro futuro con una visione a tunnel.
Non mi sentirei ignorato. Una delle grandi cose di Discourse è che, per la maggior parte, tutto può essere realizzato in una forma o nell’altra.
Ed è stato dimostrato nel tempo che un’idea una volta osteggiata dagli sviluppatori può alla fine dimostrare abbastanza merito da essere integrata nel core.
È interessante a volte, però, quanto spesso un’idea possa essere respinta. Fino a quando un’idea non viene chiaramente dimostrata per illuminare il proprio valore.
A dire il vero, non mi piace affatto la pigra moderazione volontaria di Reddit o il sistema di karma. YouTube una volta aveva un ragionevole sistema , ora mostra solo i voti positivi, i voti negativi sono nascosti.
Alla base, i moderatori vengono valutati dalla community con una rapida scansione.
Alcune aziende fanno valutare i propri lavoratori dai loro supervisori e, in base a un numero di recensioni dei lavoratori combinato con la revisione del manager del supervisore, si ottiene una sorta di combinazione.
Davvero non è un brutto sistema per favorire la crescita sia a livello di membro che di moderatore.
In più occasioni, i membri mi hanno contattato riguardo a un’azione moderata in cui ero coinvolto e hanno fornito un feedback quando hanno ritenuto che fossi stato ingiusto. E hanno avuto successo… Quindi, responsabilmente, mi sono scusato con le persone coinvolte e con la community, accettando e riconoscendo la mia fallibilità. Questo conferisce credibilità a un moderatore dimostrando che siamo altrettanto umani.
Ed, se non ricordo male, non c’è o non c’era un plugin in cui si potesse votare per le persone da eleggere come moderatori?
Prima forse era un po’ rischioso. Ma con i moderatori di categoria meno potenti, forse non è così rischioso. È passato un po’ di tempo, ma ricordo un qualche tipo di plugin…
Un po’ da una rapida occhiata. Questo.
Non viene utilizzato nella moda di eleggere i moderatori. Il che è una buona cosa, dato che la posizione di moderatore completo è da concedere con cautela se la tua azienda, in qualità di amministratore, lo consente.
Volevo creare un sito di notizie con inevitabilmente alcuni argomenti politici.
Inizialmente sarei stato l’unico admin/mod.
Ero preoccupato di passare molto tempo a moderare.
Gli utenti che segnalano sarebbero di grande aiuto, ma anche un ostacolo (segnalazioni false).
Se gli utenti avessero opinioni politicamente opposte, potrebbero tentare di utilizzare il sistema di segnalazione come censura di un’opinione con cui non erano d’accordo.
L’integrità delle segnalazioni sarebbe di grande aiuto.
Se i segnalatori falsi ricevessero un peso negativo. Dopo un certo numero di segnalazioni false, la loro segnalazione potrebbe non avere più peso.
Segnalazioni corrette con un peso positivo… che darebbe più credibilità alle loro future segnalazioni.
L’integrità delle segnalazioni sarebbe utile nel mio caso.
Se hai team di mod, meno.
Non avevo nemmeno considerato che i post dei mod potessero essere segnalati. Sembra un caso limite.
Inoltre, dato che ho ricevuto zero like per il mio suggerimento originale finché l’OP non me ne ha dato uno ( grazie), probabilmente è anche un problema/soluzione di un caso limite.
Sono divertito, o forse rattristato, da quanti dettagli sono esposti in questo thread che sono esempi dei miei tentativi di avviare una discussione sui meccanismi generali nelle società/la sociologia della comunità digitale… e quindi isolare causa, effetto, risposte ipotetiche, guide di progettazione e pattern/anti-pattern.
Domini problematici ben compresi possono avere soluzioni semplici (alto grado di coerenza in anticipo). Domini complicati hanno necessariamente molte componenti che con cura e precisione portano a soluzioni ma normalmente fragili. Domini complessi rappresentano casi in cui la visione della rilevanza e delle componenti rilevanti non è stata isolata e quindi necessitano di un approccio esplorativo - la coerenza può essere rilevata solo a posteriori - [Questa è l’osservazione che si trova al centro filosofico del movimento di sviluppo software agile e che genera quindi artefatti concreti come il daily standup o il product owner con un backlog che viene curato sulla base delle esigenze dell’utente]
Se viene impostato un sistema di moderazione con la sola capacità di gestire il semplice, non c’è mai l’opportunità di far progredire il complesso attraverso la comprensione, oltre il complicato e nel regno del semplice.
Sono sicuro di aver letto da qualche parte aspirazioni sulla comunità online di prossima generazione all’interno di meta, ma attualmente la vedo preclusa dalla posizione di moderazione. Il meccanismo di integrità della segnalazione potrebbe avere rilevanza, ma è probabilmente nella categoria complicato/fragile. Un’altra componente rilevante sarebbe la libertà di discutere i driver sociologici che non sono ancora abbastanza chiari da essere inseriti in un thread altamente coerente, ma che ci arriverebbero in futuro.
Prego, anche se le nostre idee hanno forse direzioni diverse. Ma sono anche correlate.
Argomenti politici molto simili a quelli che sperimentiamo qui con diversi punti di vista e filosofie su come raggiungere obiettivi/punti finali simili. Crea problemi di allineamento.
C’è una sorta di integrità del flag basata su come un moderatore risolve un flag.
ad esempio. I flag con cui un moderatore concorda su un particolare utente manterranno il loro punteggio di flag al 100%.
Se hai un utente, ad esempio, con cui sei quasi sempre in disaccordo sui suoi flag, il suo punteggio di flag scende in %.
Su un forum di cui sono amministratore volontario, avevamo un troll molto dedicato che pubblicava tonnellate di link ad altri post sul forum come nuovo utente. Il sistema quindi segnalava il nuovo utente e tutti i post collegati. Solo il nuovo utente in questione era il problema.
Tuttavia, avremmo dovuto essere in disaccordo con così tanti falsi flag emessi dal sistema che il punteggio di flag del sistema è sceso al 50%.
Quindi i moderatori sono incentivati a trovare cose di cui lamentarsi. Questo è un meccanismo memetico che probabilmente spiega parte della cultura di meta e, per estensione, attraverso la legge di Conway, altre comunità e può derivare da reddit e source-something (forge?) entrambi i quali ho sentito dire che possono essere più punitivi che gratificanti.
Spiega anche perché un post che ho scritto, che utilizzava la parola ‘cattolica’ con la c minuscola E citata tra virgolette singole - il che significa illustrativa della ricca varietà della vita - è stato trattato come se avessi scritto la parola Cattolica con la C maiuscola, che è un riferimento a una religione.
Ottieni i comportamenti che incentivi, sia esplicitamente che come conseguenze non intenzionali
I server Discord usano solitamente una categoria/canale di “dump” con poca o nessuna moderazione, un canale “Free4all” che non è visibile pubblicamente, richiedendo la prova dell’età o che un utente faccia domanda per l’accesso. Sebbene di solito la prova dell’età su Discord.
Discourse Meta, avendo l’apertura di essere estensibile tramite #plugins e Theme component, è un aspetto molto positivo e lungimirante, nonché un motivo molto importante per il suo successo.
Mantenere discussioni aperte sulle filosofie è anche fondamentale con dibattiti sani di diversi punti di vista. È solo quando i dibattiti vengono fraintesi e chiusi che possono rallentare le cose.
Esiste un sistema di integrità delle segnalazioni. Tuttavia, è sbilanciato quando non c’è altra opzione che fare da babysitter per garantire i casi in cui la selezione dei moderatori non è, oserei dire, in mani competenti. Sto parlando solo del mio scenario e di altri che si trovano in una posizione di amministrazione più come controllo di manutenzione/design. Dove un’azienda decide chi ottiene il ruolo di moderatore e si affida ai controlli di sistema rispetto all’integrità personale.
Questa è un’affermazione molto generica, che potrebbe non tenere conto del fatto che sia i tecnologi che i politici sono persone che creano problemi, non solo li rattoppano e/o li risolvono.
Un problema perverso, questa è una buona espressione.
Uno di questi può certamente riguardare i contrassegni di discussione, se questi vengono utilizzati in modo improprio o ignorati.
Molto perverso può essere un problema in cui si segnala che c’è un problema con qualcosa a qualcun altro. L’altra persona risponde: beh, dovrai parlare con quell’altra persona laggiù a riguardo.
Uno va a parlare con quell’altra persona del problema, e ottiene la stessa risposta: dovrai tornare a parlare con quell’altra persona con cui hai appena parlato a riguardo.
Risposta: “Ho appena parlato con loro, mi hanno detto che devo parlare con te!”
Quindi rispondi a questo: “Beh, forse dovresti andare in terapia per farti aiutare con questo allora.”
Il terapeuta ti dice: Tutto ciò che dici deve essere mantenuto riservato, non mi è permesso aiutarti con nessun problema.
Il sistema di moderazione di Discourse ha un sistema di ponderazione che funziona nel modo in cui stai descrivendo. La probabilità che un post segnalato venga nascosto si basa sull’affidabilità delle precedenti segnalazioni del segnalatore. Il punteggio è determinato dalla percentuale di volte in cui le segnalazioni di un utente sono state concordate da un membro dello staff.
Non credo che il sistema di ponderazione delle segnalazioni sia documentato su Meta. Uno dei miei obiettivi per la prossima settimana è cercare di documentarlo.
Modifica: aggiungo solo una nota che questo argomento fa un buon lavoro nel documentare come le segnalazioni vengono ponderate a seconda delle precedenti segnalazioni di un utente: Managing user reputation and flag priorities.
Credo che le impostazioni hide post sensitivity e high trust flaggers auto hide posts possano essere impostate per aumentare o diminuire la sensibilità dell’occultamento dei post.
Per ribadire i punti di @JammyDodger, non credo che questo argomento appartenga alla categoria Community. Questa è una categoria per discussioni sul lancio, la costruzione, la crescita e la gestione di community. La mia ipotesi è che la categoria sia principalmente destinata a persone che gestiscono siti Discourse. So che spesso la estendo io stesso, perché sono interessato a molte idee relative alle community online.
L’OP contiene un suggerimento valido che potrebbe essere elaborato un po’ e pubblicato nella categoria Feature.
Le lamentele sulla moderazione di Meta sono state notate. La categoria community è complicata, perché Meta è un sito ovvio da usare per esempi, ma la categoria non è il posto appropriato per lamentarsi della moderazione di Meta.
Dal mio punto di vista, i gruppi generati dagli utenti sarebbero utili per questo tipo di discussioni. Se le discussioni potessero avvenire in un gruppo a cui sono libero di unirmi e di cui posso uscire, sarei felice di parteciparvi. A parte le lamentele sulla moderazione di Meta, sono interessato a molto di ciò di cui si sta discutendo qui.
Chiuderò questo argomento. Tenendo a mente i punti di cui sopra, sentiti libero di avviare nuovi argomenti che si diramano dalle idee introdotte qui.