Quando scrivi questo, ti riferisci a questa affermazione che interpreti come un significato:
Non sono sicuro di cosa intendi con il suggerimento di “mettere insieme” segnalatore e segnalato, se ti riferisci a account utente sullo stesso sito che possono già comunicare direttamente.
Sarei d’accordo sul fatto che proteggere l’anonimato di chi compila i rapporti di segnalazione da chi viene segnalato sia una buona pratica in generale, se è questo che intendi.
È del tutto possibile che io abbia frainteso cosa intendesse @anon36555649 con:
Se il significato inteso non era qualcosa del tipo: “[il segnalatore] che parla [magari attraverso, o accompagnato da, un mediatore] con la persona/l’account che viene segnalato riguardo a ciò che spinge [il segnalatore] a segnalare cose che altri non ritengono necessitino di segnalazione”, allora mi scuso per aver frainteso.
E su un forum Discourse ben moderato, probabilmente è una soluzione praticabile come misura di contenimento.
(Il resto di questo è un po’ fuori tema, dato che riguarda Facebook, non Discourse. Ma penso sia utile avere un quadro di come funzionano le cose su altri siti, in particolare nelle aree in cui hanno problemi.)
Il flag-gaming è diventato un grosso problema su Facebook principalmente a causa della sua scala e del suo rapporto minuscolo tra moderatori e utenti.
Poiché ci sono così pochi moderatori, incredibilmente sovraccarichi, che cercano solo di tenersi a galla contro il diluvio infinito di segnalazioni e altre attività di moderazione, le decisioni automatizzate rimangono frequentemente non revisionate, se non indefinitamente (anche se, senza che il segnalato presenti un ricorso diretto, probabilmente indefinitamente), almeno abbastanza a lungo da rendere irrilevante l’esito della revisione finale.
Le conversazioni su Facebook, come su Twitter, tendono ad essere relativamente effimere. Non si ottengono thread come questo, che è fluttuato ed è evoluto per 4 anni. Sui social media di massa, quando qualcuno pubblica su un argomento, quel post raggiunge il 95% dei feed che raggiungerà entro poche ore, forse un giorno o due al massimo. Le conversazioni che nascono nelle risposte/commenti potrebbero avere una coda leggermente più lunga, ma comunque la maggior parte dell’attività si spegne abbastanza rapidamente. Il Feed™ avanza inesorabilmente.
Quindi, quando i flag-gamers riescono ad attivare la rimozione automatica di un post, non importa davvero se un revisore umano alla fine lo ripristina, a meno che quel ripristino non avvenga abbastanza rapidamente da farne ancora parte della conversazione.
Un post che viene ripristinato una settimana dopo la sua rimozione potrebbe benissimo non essere mai esistito. A quel punto, la conversazione si è spenta, l’attenzione delle persone si è spostata altrove e il post falsamente segnalato viene ripristinato in un forum senza più pubblico.
Lo scopo apparente della segnalazione (far rimuovere il post) alla fine non ha successo. Ma i segnalatori hanno effettivamente raggiunto il loro obiettivo reale: hanno messo a tacere il post preso di mira abbastanza a lungo da far sì che tutti smettessero di ascoltare.
Certo, pochissimi siti hanno un’attività da monitorare quanto Facebook, e la maggior parte dei siti può rivedere le decisioni di moderazione in meno di una settimana. Ma la revisione umana, sebbene importante, non è necessariamente significativa a meno che non sia anche sufficientemente tempestiva da avere importanza.
Ci sono molte buone ragioni in quello che hai scritto per non usare Facebook, non ci sono nemmeno moderatori volontari per le singole pagine? I moderatori dello staff per una piattaforma gigantesca come quella non possono davvero moderare efficacemente cose con cui non sono nemmeno coinvolti, si potrebbe pensare.
L’intento di segnalare potrebbe non essere sempre quello di rimuovere contenuti, ma potrebbe essere quello di correggere/chiarire qualcosa se è inaccurato o necessita di correzione/chiarimento.