Sì, dovrebbe esserlo, ma come hai giustamente sottolineato:
Ho trovato questo discorso piuttosto scioccante:
E concordo con te che i media statunitensi e britannici di oggi siano troppo occupati a promuovere una narrazione e un’opinione, tanto che le notizie vere vengono distorte e, come dici, questo alimenta le discussioni che le persone hanno sui social media.
Il problema con questo approccio (e in effetti con l’aspetto di “equilibrio e imparzialità” del giornalismo) è l’assunzione di “buona fede” da parte di tutti o l’idea che “tutte le opinioni meritino di essere ascoltate”. Il problema è che la storia recente ha dimostrato che ciò non è vero.
Il bigottismo, il razzismo, il classismo e altri terribili risvolti della natura umana proliferano in questo modo, in parte perché molte comunità permettono il “sealioning”, ovvero il “dibattito forzato”. Condividere la propria opinione non dovrebbe costringere gli altri a discuterne. Queste tattiche sono utilizzate molto efficacemente per deviare o interrompere la conversazione. In passato abbiamo avuto membri disturbanti che hanno usato queste tattiche per “prendere il controllo” delle discussioni con commenti intenzionalmente controversi o infiammatori, consapevoli di scatenare dibattiti.
Prese singolarmente, queste osservazioni possono sembrare innocue finché non si esaminano le cronologie dei commenti e ci si rende conto che l’autore ha assunto ripetutamente le posizioni più infiammatorie su vari argomenti proprio per questo motivo. A volte è stato necessario più di un anno per dimostrarlo, portando a innumerevoli deviazioni e danni alla comunità, tutto sotto la copertura di permettere che tutte le opinioni fossero espresse e discusse.
Vorrei poter dire che questo sia raro, ma non lo è. In realtà, abbiamo appena avuto un utente che ha ammesso questo processo creando nuovi account dopo che ciascuno è stato bannato dal 2013. C’è un numero crescente di persone che sembrano divertirsi a unirsi a forum pieni di certi tipi di comunità solo per “agitare le acque” e pubblicare le reazioni altrove o semplicemente per gratificazione personale. È importante che i forum tengano conto di questo comportamento se vogliono tentare di permettere argomenti controversi o carichi emotivamente.
Ben espresso, e hai moderato attivamente un sito che discute da tempo numerosi argomenti controversi, quindi hai molteplici esempi reali a cui attingere. Ho anche trovato questo fumetto sul Paradosso della Tolleranza – che ho impiegato 30 minuti per rintracciare fino all’originale, sorprendentemente in spagnolo, di un account di infografica artistica straordinario – estremamente pertinente:
Sembra contraddittorio estendere la libertà di parola agli estremisti che … se avessero successo, sopprimerebbero senza pietà la parola di chi non è d’accordo con loro.
Mi dispiace per il ripescaggio, ma sentivo di poter fornire qualcosa di valore qui. Non sono sicuro se ci siano community che si occupano di questo, dato che il discorso politico tossico non è andato da nessuna parte, quindi forse questo può essere d’aiuto.
Sul mio forum, con una base di utenti molto attiva, due anni fa abbiamo preso la decisione di proibire qualsiasi discussione politica. E sapete cosa? Dopo un breve e imbarazzante adattamento, tutti sono a bordo. E ne sono grati.
Dopo letteralmente anni di ospitare una “Taverna Off-Topic”, dove tutto era permesso, abbiamo capito due cose principali…
Non puoi isolare le emozioni: qualunque conversazione avvenisse nella OTT avrebbe degradato la qualità della community e della discussione altrove sul sito. Con un campione sufficientemente ampio, gli utenti - che altrimenti sono una community affiatata attorno a un argomento specifico (squadra di calcio) - non sono stati in grado di separare i loro pensieri/emozioni dagli altri utenti con cui avevano litigato politicamente. Ciò è stato confermato da un calo degli Utenti Attivi, da utenti che richiedevano la cancellazione dei loro account e da commenti aneddotici di decine di utenti di lunga data.
Ha divorato il tempo dei moderatori: è semplicemente impossibile avere moderatori volontari - anzi, nemmeno moderatori pagati - quando si ha una community attiva che discute di politica. Ho avuto due moderatori che hanno rinunciato ai loro doveri di moderazione specificamente a causa della tossicità della politica sul forum. Andate pure a visitare i subreddit là fuori. O sono una camera dell’eco o uno spettacolo completo. Poiché i moderatori sono anche responsabili del mantenimento della pace e dell’aumento dell’attrattiva della community stessa, questo li ha messi in una posizione impossibile. Di nuovo, degrado del forum come risultato.
Infine, siamo in un territorio strano con la politica. E se avete la messaggistica privata accessibile al vostro forum, le persone possono usare quella funzione per inviare qualsiasi tipo di abuso, comprese le minacce. E quando ciò accade, voi, come proprietari del forum, avete ora un’esposizione legale/responsabilità di agire.
La mia base di utenti è infinitamente opinabile - su tutto. E quando abbiamo preso la decisione, ho chiarito che era la mia decisione. Diversi utenti di lunga data se ne sono andati per protesta. La maggior parte è tornata. E almeno due mi hanno contattato personalmente in seguito per ringraziarmi della decisione, affermando che il forum poteva essere “una via di fuga dal vitriolo di oggi”. È diventata di nuovo una community.
E, dopotutto, non è questo il punto di tutto questo?
La politica è davvero un argomento tossico. Nel mio forum c’erano 2 argomenti che sono scivolati nella politica. Era difficile discutere l’argomento stesso senza che i membri venissero trascinati in divergenze di opinioni, e poi l’argomento diventasse una tempesta di fuoco. Un membro che ha iniziato la retorica politica ha smesso del tutto di visitare… e il forum è tornato al suo stato amichevole e cordiale precedente. La politica non viene più discussa.
Sono lieto che questo approccio funzioni per te. In effetti, probabilmente funzionerebbe per gruppi simili a Nextdoor in cui lo scopo principale del gruppo non è la politica, ma non “risolve” nulla in senso macro, non rende Discourse un prodotto migliore dire “censura tutto il discorso politico se vuoi gestire Discourse” (essenzialmente, so che non è questa la tua intenzione qui).
Il nostro forum fa parte di una comunità vasta e variegata che discute di tutto, dall’arte e cultura alla politica mondiale, minoranze vulnerabili e riforme sociali. Il nostro blog viene attaccato abbastanza spesso da farci partecipare sia al Project Shield di Google che al Project Galileo di Cloudflare nel tentativo di fermare gli attacchi dal web, e stiamo facendo uno sforzo in buona fede per discutere gli argomenti “difficili” (come descritto sopra da @codinghorror). A meno che il piano non sia davvero “se vuoi avere argomenti controversi nella tua comunità, usa un altro strumento”, allora penso che dobbiamo cercare soluzioni che aspirino a realizzare più che semplicemente rimuovere spazi sicuri in cui queste discussioni possono aver luogo fin dall’inizio. Perché NextDoor non è uno di quei posti, ma credo che il software Discourse stia cercando di essere un’opzione per permettere a questi di esistere.
Sembra un grosso problema sociale che Discourse potrebbe aiutare a risolvere. L’approccio di moderazione whack-a-mole potrebbe essere utile per eliminare i post che violano le linee guida di un sito, ma è improbabile che porti a conversazioni che riducano la polarizzazione o risolvano effettivamente alcuni dei problemi discussi.
Forse parte della differenza è che le persone comprendono implicitamente le regole per certi tipi di conversazioni. Ad esempio, se qualcuno pone una domanda su Meta, si capisce che una risposta appropriata sarebbe probabilmente una delle seguenti:
chiedere maggiori informazioni
mostrare solidarietà
suggerire una soluzione alternativa
rispondere alla domanda
Non credo ci sia una simile comprensione condivisa su come rispondere ad argomenti su questioni polarizzanti ed emotivamente cariche.
Mi chiedo se ci sarebbe qualche valore nell’imporre una struttura esplicita a questi tipi di conversazioni. L’idea sarebbe quella di utilizzare strutture come impalcature temporanee finché una community, o la cultura nel suo complesso, non avrà recepito l’idea di come avere conversazioni su argomenti emotivamente carichi. Ci sono alcune possibili strutture nella nostra cultura attuale:
il bastone da parola: un bastone da parola viene passato tra i membri del gruppo. Solo la persona che tiene il bastone ha il diritto di parlare, mentre tutti gli altri ascoltano rispettosamente. Forse un approccio simile potrebbe essere utilizzato nelle conversazioni online per enfatizzare l’umanità delle persone coinvolte in una particolare discussione. (Tuttavia, attenzione ai problemi di appropriazione culturale con questo.)
dibattito formale: una risoluzione viene dibattuta tra due squadre opposte davanti a un pubblico. Discourse sembra una piattaforma ideale per questo. Se una conversazione va fuori strada, si potrebbe avviare un argomento di dibattito correlato. Il “pubblico” potrebbe essere interrogato prima e dopo il dibattito per vedere se ha avuto qualche effetto sulla loro opinione.
steelmanning: l’opposto di strawmanning - presentare il miglior argomento del punto di vista dell’opposizione. Un’implementazione possibile sarebbe richiedere ai partecipanti a una conversazione di presentare un argomento a favore del punto di vista opposto prima di poter aggiungere altri post argomentando a favore del proprio punto di vista in un argomento.
Potrebbero esserci altre strutture che potrebbero essere utilizzate per stabilire punti di accordo e disaccordo tra gruppi nominalmente opposti. Ad esempio, mentre i membri del mio gruppo Facebook locale non sono d’accordo sul fatto che più o meno polizia aiuterà con ciò che sta accadendo nel nostro centro, molti da entrambe le parti concordano sul fatto che vorrebbero che ci fossero meno persone che vivono per strada e meno persone che soffrono di dipendenza da droghe. Una piattaforma di discussione potrebbe permetterci di stabilire questo punto di accordo. Ulteriori discussioni sulla questione potrebbero essere limitate a quei membri della community che hanno accettato che i loro avversari nominali fossero d’accordo con loro su un obiettivo finale desiderabile, mentre erano in disaccordo sui dettagli su come raggiungere l’obiettivo.
Se non è chiaro, sto ipotizzando parecchio. È possibile che io sia completamente fuori strada, o che stia reinventando la ruota dai principi primi. Ci sono un paio di siti Discourse che vorrei creare che rischiano di diventare piuttosto tossici, quindi qualsiasi suggerimento su come avere discussioni utili su questioni polarizzanti sarebbe apprezzato.
Mi piace l’idea di strumenti per conversazioni difficili.
Potrebbe essere utile avere un argomento in cui solo due persone nominate possano contribuire. Forse una delle due dovrebbe poter passare il testimone a qualcuno di propria scelta.
Comunemente nel public speaking abbiamo limiti di tempo. Nelle conversazioni personali abbiamo convenzioni di alternanza. (Le videochiamate soffrono qui, perché la latenza e l’audio half-duplex intralciano.) Una delle cose che trovo molto stressanti è quando qualcuno impiega troppo tempo, magari ripetendosi, o introduce troppi punti. Rispondere a un elenco di punti in continua crescita con paragrafi citati diventa improduttivo.
Quindi, un limite alla lunghezza dei post, per questi tipi di conversazioni difficili, potrebbe essere utile. In qualche modo far pensare le persone alla loro posizione e ridurla a qualcosa di digeribile. Che è diverso dal tirare fuori tutto ciò che si ha dentro.
Ma le persone hanno bisogno di sentirsi ascoltate, sia che vengano o meno accontentate. Non so se i “mi piace”, i cuori, le reazioni, siano sufficienti per questo.
Un mezzo per avere un facilitatore per una conversazione potrebbe essere utile, potrebbe essere qualcosa come un moderatore. I loro contributi dovrebbero risaltare visivamente.
Ci sono ovviamente abilità reali, che possono essere insegnate, per aiutare con la mediazione e la riconciliazione. E la de-escalation…
Mi sono chiesto se le discussioni in classe potessero essere usate come modello per condurre discussioni online su questioni controverse. Ci sono alcune strategie di discussione di "apprendimento attivo" che potrebbero essere utili: Active learning - Wikipedia. Un’implementazione di base sarebbe che l’OP ponga una domanda invece di fare semplicemente un’affermazione controversa a cui le persone reagiscono. Ho visto persone ottenere buoni risultati utilizzando questo approccio su Twitter.
Un approccio più sofisticato sarebbe avere qualcuno che ricopra il ruolo di insegnante/facilitatore. Potrebbero chiedere a partecipanti specifici alla discussione di rispondere a una domanda. Potrebbero anche dividere i partecipanti alla discussione in gruppi di apprendimento collaborativo, o accoppiare i partecipanti per implementare qualcosa come la strategia di apprendimento think-pair-share.
Certamente! Potrebbe essere che per dare alle persone sufficiente attenzione in una discussione online sarà necessario escludere alcune persone dalla discussione. Non credo che avere 50 o più (sto ipotizzando il numero) persone che esprimono i propri pensieri su una questione sia soddisfacente per nessuno. Dividere i partecipanti in gruppi di apprendimento collaborativo potrebbe aiutare a dare un’attenzione significativa a più partecipanti. Un aspetto dell’attenzione che viene spesso trascurato è che le persone hanno bisogno sia di dare che di ricevere attenzione. Sarebbe utile una struttura che promuova il dare attenzione mentre si aspetta il proprio turno per ricevere attenzione.