And agree with you that US and U.K. media these days is too busy pushing a narrative and opinion that the actual news gets twisted, and as you say, this feeds into the discussions people have on social media.
The problem with this approach (and indeed with the “fair and balanced” aspect of journalism) is the assumption of “good faith” on all sides or the idea that “all opinions deserve to be heard.” The problem is, recent history has proved this to not be true.
Bigotry, racism, classism and other terrible under bellies of human nature proliferate this way, in part because many communities permit “sealioning”, or the “forced debate” to occur. The act of sharing ones opinion should not force others to debate it. These tactics are used very effectively to derail or shut down the conversation. We’ve had disruptive members use these tactics in the past to “take over” discussions with intentionally controversial or inflammatory comments that will knowingly spark debate.
Taken separately, these comments may seem innocent until you examine the comment histories and realize the poster has been repeatedly taking the most inflammatory positions on topics for just this reason. This has sometimes taken more than a year to prove out, leading to untold derailments and damage to the community, all under the guise of letting all opinions be aired and debated.
I wish I could say this was uncommon, but it isn’t. In fact we just had a user admit to this process by creating new accounts after each was banned since 2013. There is an increasing number of folks who seem to enjoy joining forums filled with certain types of communities just to “stir the pot” and post the reactions elsewhere or just for personal gratification. It is important that forums take this behaviour in to account if it is to try and permit controversial or charged topics.
Well stated, and you have actively moderated a site that discusses quite a few contentious topics for quite some time now, so you have plenty of real world examples to draw on. I also found this comic on the Paradox of Tolerance – which I took 30 minutes to source to the original, surprisingly in Spanish by an amazing art infographic account – extremely relevant:
Mi dispiace per il ripescaggio, ma sentivo di poter fornire qualcosa di valore qui. Non sono sicuro se ci siano community che si occupano di questo, dato che il discorso politico tossico non è andato da nessuna parte, quindi forse questo può essere d’aiuto.
Sul mio forum, con una base di utenti molto attiva, due anni fa abbiamo preso la decisione di proibire qualsiasi discussione politica. E sapete cosa? Dopo un breve e imbarazzante adattamento, tutti sono a bordo. E ne sono grati.
Dopo letteralmente anni di ospitare una “Taverna Off-Topic”, dove tutto era permesso, abbiamo capito due cose principali…
Non puoi isolare le emozioni: qualunque conversazione avvenisse nella OTT avrebbe degradato la qualità della community e della discussione altrove sul sito. Con un campione sufficientemente ampio, gli utenti - che altrimenti sono una community affiatata attorno a un argomento specifico (squadra di calcio) - non sono stati in grado di separare i loro pensieri/emozioni dagli altri utenti con cui avevano litigato politicamente. Ciò è stato confermato da un calo degli Utenti Attivi, da utenti che richiedevano la cancellazione dei loro account e da commenti aneddotici di decine di utenti di lunga data.
Ha divorato il tempo dei moderatori: è semplicemente impossibile avere moderatori volontari - anzi, nemmeno moderatori pagati - quando si ha una community attiva che discute di politica. Ho avuto due moderatori che hanno rinunciato ai loro doveri di moderazione specificamente a causa della tossicità della politica sul forum. Andate pure a visitare i subreddit là fuori. O sono una camera dell’eco o uno spettacolo completo. Poiché i moderatori sono anche responsabili del mantenimento della pace e dell’aumento dell’attrattiva della community stessa, questo li ha messi in una posizione impossibile. Di nuovo, degrado del forum come risultato.
Infine, siamo in un territorio strano con la politica. E se avete la messaggistica privata accessibile al vostro forum, le persone possono usare quella funzione per inviare qualsiasi tipo di abuso, comprese le minacce. E quando ciò accade, voi, come proprietari del forum, avete ora un’esposizione legale/responsabilità di agire.
La mia base di utenti è infinitamente opinabile - su tutto. E quando abbiamo preso la decisione, ho chiarito che era la mia decisione. Diversi utenti di lunga data se ne sono andati per protesta. La maggior parte è tornata. E almeno due mi hanno contattato personalmente in seguito per ringraziarmi della decisione, affermando che il forum poteva essere “una via di fuga dal vitriolo di oggi”. È diventata di nuovo una community.
E, dopotutto, non è questo il punto di tutto questo?
La politica è davvero un argomento tossico. Nel mio forum c’erano 2 argomenti che sono scivolati nella politica. Era difficile discutere l’argomento stesso senza che i membri venissero trascinati in divergenze di opinioni, e poi l’argomento diventasse una tempesta di fuoco. Un membro che ha iniziato la retorica politica ha smesso del tutto di visitare… e il forum è tornato al suo stato amichevole e cordiale precedente. La politica non viene più discussa.
Sono lieto che questo approccio funzioni per te. In effetti, probabilmente funzionerebbe per gruppi simili a Nextdoor in cui lo scopo principale del gruppo non è la politica, ma non “risolve” nulla in senso macro, non rende Discourse un prodotto migliore dire “censura tutto il discorso politico se vuoi gestire Discourse” (essenzialmente, so che non è questa la tua intenzione qui).
Il nostro forum fa parte di una comunità vasta e variegata che discute di tutto, dall’arte e cultura alla politica mondiale, minoranze vulnerabili e riforme sociali. Il nostro blog viene attaccato abbastanza spesso da farci partecipare sia al Project Shield di Google che al Project Galileo di Cloudflare nel tentativo di fermare gli attacchi dal web, e stiamo facendo uno sforzo in buona fede per discutere gli argomenti “difficili” (come descritto sopra da @codinghorror). A meno che il piano non sia davvero “se vuoi avere argomenti controversi nella tua comunità, usa un altro strumento”, allora penso che dobbiamo cercare soluzioni che aspirino a realizzare più che semplicemente rimuovere spazi sicuri in cui queste discussioni possono aver luogo fin dall’inizio. Perché NextDoor non è uno di quei posti, ma credo che il software Discourse stia cercando di essere un’opzione per permettere a questi di esistere.
Sembra un grosso problema sociale che Discourse potrebbe aiutare a risolvere. L’approccio di moderazione whack-a-mole potrebbe essere utile per eliminare i post che violano le linee guida di un sito, ma è improbabile che porti a conversazioni che riducano la polarizzazione o risolvano effettivamente alcuni dei problemi discussi.
Forse parte della differenza è che le persone comprendono implicitamente le regole per certi tipi di conversazioni. Ad esempio, se qualcuno pone una domanda su Meta, si capisce che una risposta appropriata sarebbe probabilmente una delle seguenti:
chiedere maggiori informazioni
mostrare solidarietà
suggerire una soluzione alternativa
rispondere alla domanda
Non credo ci sia una simile comprensione condivisa su come rispondere ad argomenti su questioni polarizzanti ed emotivamente cariche.
Mi chiedo se ci sarebbe qualche valore nell’imporre una struttura esplicita a questi tipi di conversazioni. L’idea sarebbe quella di utilizzare strutture come impalcature temporanee finché una community, o la cultura nel suo complesso, non avrà recepito l’idea di come avere conversazioni su argomenti emotivamente carichi. Ci sono alcune possibili strutture nella nostra cultura attuale:
il bastone da parola: un bastone da parola viene passato tra i membri del gruppo. Solo la persona che tiene il bastone ha il diritto di parlare, mentre tutti gli altri ascoltano rispettosamente. Forse un approccio simile potrebbe essere utilizzato nelle conversazioni online per enfatizzare l’umanità delle persone coinvolte in una particolare discussione. (Tuttavia, attenzione ai problemi di appropriazione culturale con questo.)
dibattito formale: una risoluzione viene dibattuta tra due squadre opposte davanti a un pubblico. Discourse sembra una piattaforma ideale per questo. Se una conversazione va fuori strada, si potrebbe avviare un argomento di dibattito correlato. Il “pubblico” potrebbe essere interrogato prima e dopo il dibattito per vedere se ha avuto qualche effetto sulla loro opinione.
steelmanning: l’opposto di strawmanning - presentare il miglior argomento del punto di vista dell’opposizione. Un’implementazione possibile sarebbe richiedere ai partecipanti a una conversazione di presentare un argomento a favore del punto di vista opposto prima di poter aggiungere altri post argomentando a favore del proprio punto di vista in un argomento.
Potrebbero esserci altre strutture che potrebbero essere utilizzate per stabilire punti di accordo e disaccordo tra gruppi nominalmente opposti. Ad esempio, mentre i membri del mio gruppo Facebook locale non sono d’accordo sul fatto che più o meno polizia aiuterà con ciò che sta accadendo nel nostro centro, molti da entrambe le parti concordano sul fatto che vorrebbero che ci fossero meno persone che vivono per strada e meno persone che soffrono di dipendenza da droghe. Una piattaforma di discussione potrebbe permetterci di stabilire questo punto di accordo. Ulteriori discussioni sulla questione potrebbero essere limitate a quei membri della community che hanno accettato che i loro avversari nominali fossero d’accordo con loro su un obiettivo finale desiderabile, mentre erano in disaccordo sui dettagli su come raggiungere l’obiettivo.
Se non è chiaro, sto ipotizzando parecchio. È possibile che io sia completamente fuori strada, o che stia reinventando la ruota dai principi primi. Ci sono un paio di siti Discourse che vorrei creare che rischiano di diventare piuttosto tossici, quindi qualsiasi suggerimento su come avere discussioni utili su questioni polarizzanti sarebbe apprezzato.
Mi piace l’idea di strumenti per conversazioni difficili.
Potrebbe essere utile avere un argomento in cui solo due persone nominate possano contribuire. Forse una delle due dovrebbe poter passare il testimone a qualcuno di propria scelta.
Comunemente nel public speaking abbiamo limiti di tempo. Nelle conversazioni personali abbiamo convenzioni di alternanza. (Le videochiamate soffrono qui, perché la latenza e l’audio half-duplex intralciano.) Una delle cose che trovo molto stressanti è quando qualcuno impiega troppo tempo, magari ripetendosi, o introduce troppi punti. Rispondere a un elenco di punti in continua crescita con paragrafi citati diventa improduttivo.
Quindi, un limite alla lunghezza dei post, per questi tipi di conversazioni difficili, potrebbe essere utile. In qualche modo far pensare le persone alla loro posizione e ridurla a qualcosa di digeribile. Che è diverso dal tirare fuori tutto ciò che si ha dentro.
Ma le persone hanno bisogno di sentirsi ascoltate, sia che vengano o meno accontentate. Non so se i “mi piace”, i cuori, le reazioni, siano sufficienti per questo.
Un mezzo per avere un facilitatore per una conversazione potrebbe essere utile, potrebbe essere qualcosa come un moderatore. I loro contributi dovrebbero risaltare visivamente.
Ci sono ovviamente abilità reali, che possono essere insegnate, per aiutare con la mediazione e la riconciliazione. E la de-escalation…
Mi sono chiesto se le discussioni in classe potessero essere usate come modello per condurre discussioni online su questioni controverse. Ci sono alcune strategie di discussione di "apprendimento attivo" che potrebbero essere utili: Active learning - Wikipedia. Un’implementazione di base sarebbe che l’OP ponga una domanda invece di fare semplicemente un’affermazione controversa a cui le persone reagiscono. Ho visto persone ottenere buoni risultati utilizzando questo approccio su Twitter.
Un approccio più sofisticato sarebbe avere qualcuno che ricopra il ruolo di insegnante/facilitatore. Potrebbero chiedere a partecipanti specifici alla discussione di rispondere a una domanda. Potrebbero anche dividere i partecipanti alla discussione in gruppi di apprendimento collaborativo, o accoppiare i partecipanti per implementare qualcosa come la strategia di apprendimento think-pair-share.
Certamente! Potrebbe essere che per dare alle persone sufficiente attenzione in una discussione online sarà necessario escludere alcune persone dalla discussione. Non credo che avere 50 o più (sto ipotizzando il numero) persone che esprimono i propri pensieri su una questione sia soddisfacente per nessuno. Dividere i partecipanti in gruppi di apprendimento collaborativo potrebbe aiutare a dare un’attenzione significativa a più partecipanti. Un aspetto dell’attenzione che viene spesso trascurato è che le persone hanno bisogno sia di dare che di ricevere attenzione. Sarebbe utile una struttura che promuova il dare attenzione mentre si aspetta il proprio turno per ricevere attenzione.