J’aimerais voir l’intégrité des signalements. Le personnel et les modérateurs de catégorie ne devraient pas être autorisés à gérer les signalements dont ils sont la cible ou l’origine.
Défaut certain dans la configuration de Discourse. Cela nécessite une solution technique.
NOTR :Très déçu qu’un excellent sujet ait été fermé en raison de sa portée étendue. À la simple suggestion d’une « explosion de sous-sujets ». Ce sujet aurait pu continuer à mûrir avec la création de sous-sujets liés au sujet parent. Très contre-productif à mon avis – Pour que le dialogue civil soit encouragé ; la diversité dans un sujet doit pouvoir s’exprimer sans entrave lorsqu’il n’y a pas de conflit agressif. Guider les flux au lieu de les arrêter brusquement.
Eh bien, s’il n’y avait qu’un seul membre du personnel, on pourrait utiliser un interrupteur de site. Ou…
Un seul administrateur peut créer un deuxième utilisateur modérateur. Un seul membre du personnel est une situation très unique.
De plus, un seul membre du personnel est administrateur et peut faire des choses qu’aucun utilisateur ne peut faire, y compris les utilisateurs de niveau modérateur.
Excellente question, je crois que la réponse est : cela ne fonctionnerait pas.
Pour un forum communautaire où il y a des désaccords entre le personnel de modération et les comptes d’utilisateurs, si un modérateur est signalé, il ne peut pas vraiment répondre correctement à ce type de signalement en général. Comme un policier ne délivrerait pas normalement une contravention pour sa propre voiture de patrouille.
Avec un seul site de personnel. Le membre du personnel est un administrateur. Les comptes d’administrateur ont le niveau de contrôle ultime et ne sont pas affectés par la majorité des règles.
c’est-à-dire, quelle que soit la sécurité de la catégorie, un administrateur peut créer/répondre/voir.
Un compte de modérateur suit les règles de sécurité de la catégorie. Si les modérateurs n’ont pas accès à une catégorie privée, ils ne peuvent pas la voir.
Il peut même être judicieux de créer un compte séparé pour la modération avec votre compte d’administrateur, davantage pour les tâches d’administration directes par rapport à l’hybridation.
Plusieurs fois, des membres m’ont envoyé un message privé à cause d’un sujet que j’avais créé auquel ils ne pouvaient pas répondre.
Être la cible ou l’origine d’un signalement semble être deux cas distincts. Empêcher un modérateur de gérer les signalements qu’il a créés pourrait avoir un impact sur son flux de travail. Par exemple, un modérateur pourrait signaler un message comme spam, puis revenir plus tard pour gérer le signalement depuis la file d’attente de révision.
Le cas d’un modérateur étant la cible d’un signalement semble délicat. Je soupçonne que, dans de tels cas, les modérateurs d’un site devront examiner la situation ensemble en équipe. Le risque est que les signalements soient utilisés pour tenter de monter les modérateurs les uns contre les autres.
La question posée dans le message d’origine de ce sujet m’intéresse. C’est peut-être une demande déraisonnable de ma part, mais j’aide à modérer Meta pendant la semaine prochaine pendant que quelques membres de l’équipe prennent un repos bien mérité. Au lieu de remettre en question la décision de fermer le sujet, pourrions-nous simplement accepter la suggestion de créer des sujets distincts pour traiter les différents sous-problèmes soulevés dans les réponses du sujet ?
Presque tout ce que j’ai essayé de discuter a été fermé et sanctionné.
Tout a été discuté avec maturité, expérience, équilibre, contrepoids utile d’opinions travaillant à une exploration significative de sujets sérieux par tous les participants. Discussion qui éclairerait la conception et l’éthique dans le développement de logiciels « pour la prochaine génération de communauté numérique » d’une manière dans laquelle je suis actuellement impliqué bénévolement dans 1) l’éthique médicale/les soins chroniques et la recherche et 2) la gouvernance d’entreprise menant à l’encadrement/au perfectionnement d’une norme ISO.
J’apprécierais une certaine modération de la modération.
Une solution simple consiste à restaurer la capacité d’un Mod/Admin à masquer un message unique. Maintenant, si le spam en question provient d’un compte bot. Supprimer et suspendre/supprimer l’utilisateur fonctionne bien.
Le message de spam est masqué et un autre membre de l’équipe de modération peut examiner et valider le signalement.
À mon avis, cela laisse la tentation en jeu. Une très bonne équipe de modération qui est synchronisée peut fonctionner… Mais si une solution technique est disponible, elle garantit la conformité.
Les modérateurs disposent d’une multitude d’outils. C’est-à-dire :
Sélectionner les messages
Déplacer vers un nouveau sujet
Rendre le sujet privé
Inviter les modérateurs
Si nécessaire, donnez à l’utilisateur un silence temporaire, disons 3 jours à une semaine. Notifiez l’utilisateur en message privé qu’il doit attendre les autres modérateurs sur cette question.
Très vrai, l’équipe a besoin d’une pause bien méritée. Et c’est probablement pourquoi, ces derniers temps, la modération ici semble parfois erratique/hâtive.
Une autre façon d’aborder le problème serait de trouver une solution technique qui permette à la modération d’être plus transparente.
Pour la catégorie Community en général, je pense que les conversations seront plus productives si nous ne l’utilisons pas comme un endroit pour discuter des problèmes liés à la modération du forum Discourse Meta. La catégorie Site feedback serait plus appropriée pour ces discussions. C’est une ligne fine. Je sais que je l’ai moi-même franchie par le passé.
Ceci est en dehors de mes responsabilités.
Edit : cela semble être un bon exemple d’utilisation des « groupes créés par les utilisateurs ». Les utilisateurs pourraient être autorisés à créer des groupes auxquels d’autres utilisateurs seraient libres de se joindre. Cette idée a été évoquée à quelques reprises.
C’est bien qu’ils aient cette catégorie ici, je pensais y lancer un sujet.
Pour ce sujet sur le système de signalement, il parlait initialement en général de cela et non spécifiquement d’un forum en particulier.
Meta a beaucoup de trafic avec environ 150 messages par jour, il est difficile pour quiconque de filtrer ce volume. Mon impression générale en tant que nouveau venu ici est que c’est un peu comme un garage pour taxis, et pour parler de la façon de gérer un service de taxi. Pas du tout comme le siège arrière d’un taxi, comme d’autres pages de forum pourraient l’être.
Je pense qu’il est important de créer des sujets qui permettent aux gens de contribuer de manière significative à une discussion, plutôt que ceux qui essaient de couvrir trop de terrain.
Par exemple, ce sujet mélange plusieurs éléments différents introduits dans le message d’origine, ce qui, je pense, ne permet à personne de contribuer pleinement à l’un d’entre eux. C’est un sujet de #communauté, mais qui semble lancer l’idée d’une nouvelle #fonctionnalité pour le signalement. Bien que le texte cité concerne un score de drapeau d’accord/désaccord qui ne semble pas lié à cela ^ (et qui, de manière légèrement tangentielle, existe déjà. Bien que récemment minimisé dans l’interface utilisateur des drapeaux car nous pensions que personne ne l’utilisait. Potentiellement un bon sujet de UXreview-queue). Il critique également une décision de modération sur le site. Et comme les réponses sont entremêlées avec un peu de tout dans les mêmes messages, il est également impossible de les séparer ou de les ramener au sujet de manière significative.
Je pense que lors de la création d’un sujet, il est important de décider de quoi vous voulez qu’il traite, car un sujet ne peut pas traiter de tout à la fois sans entraîner une conversation fragmentée et finalement improductive.
Évidemment, tous les sites sont différents et peuvent avoir des approches différentes à cet égard, et devraient être libres de le faire.
Nous avons tendance à prendre nos décisions en équipe ici sur Meta.
Quant à la demande de #fonctionnalité elle-même, je pense que vous devez faire confiance à vos administrateurs et modérateurs pour faire les bons choix. Ils ont une bonne idée de ce qui est attendu ou non, et travailleront souvent en équipe pour y parvenir. Il existe également de bons rapports sur le tableau de bord que vous pouvez utiliser comme supervision, en fonction de la taille de votre équipe (ou vous pouvez en créer des sur mesure si vous avez l’explorateur de données s’ils ne conviennent pas).
Alors, que faisons-nous de ce sujet ? Le recatégoriser et le renommer pour refléter correctement son contenu ? Il ne semble pas y avoir de choix évident pour cela. Il ne semble pas non plus y avoir de bon point de séparation pour en faire deux (ou plus de sujets). Ou le fermons-nous et encourageons-nous la fonctionnalité à être transformée en sujet de #fonctionnalité et l’ux en sujet de UX, et tirons-nous un trait sur le fait que parfois les sujets doivent être fermés à la discrétion d’un modérateur pour gérer ces situations ?
Peut-être recatégoriser. Peut-être UX, car cela pourrait probablement être fait en tant que #composant-thème qui pourrait toujours, si l’équipe le souhaite, faire partie du cœur, tout comme les bulles de PM l’ont fait.
Ce pourrait être une idée de sélectionner les publications non liées à l’idée. Pour être placées dans un sujet #communauté distinct sur les idées de gestion de sujets généraux.
Par exemple, cela pourrait être fait comme une discussion parente dont les points d’idée deviennent de nouveaux sujets enfants. Mais ce serait plutôt un point de départ…
Quant à la confiance par rapport au contrôle. Nous savons à quel point la confiance fonctionne, par exemple, avec les excès de vitesse dans les zones de sécurité communautaires ou les excès de vitesse eux-mêmes. Nous sommes à un niveau technologique où les voitures peuvent être fabriquées avec des contrôles limités pour potentiellement éliminer la conduite dangereuse liée à la vitesse.
EDIT :
Quel est le rapport avec le score de signalement ? Un modérateur qui signale les publications des membres augmente son signalement pour les signalements utiles. Bien sûr, il est formidable de dire simplement de choisir judicieusement votre équipe de modérateurs. Dans certains scénarios, c’est un chef d’entreprise qui décide qui a le niveau de modérateur ; une option simple pour garantir l’intégrité qui ne repose pas sur la condition humaine peut donc être préférée. « ne nous induis pas en tentation »
Un défi est qu’il existe une différence entre ce qui relève de la modération et ce qui relève de l’édition/indexation pour un enregistrement historique.
De nombreuses rivières serpentent tout en restant sur leur course vers la mer.
Je recommanderais un nouveau titre pour ce fil de discussion, à moins que vous ne mainteniez votre affirmation selon laquelle il n’existe aucun système d’intégrité pour les drapeaux. C’est une affirmation audacieuse avec laquelle je ne suis pas d’accord.
Il y a une limitation au système de drapeaux, oui, mais proclamer qu’il n’y a pas d’intégrité semble stupide. Si tel était le cas, ce ne serait pas le bon endroit pour le signaler.
Système d’intégrité, honnêtement, mon opinion à ce sujet est toujours la même.
J’avais un modérateur qui augmentait son score de signalement parce qu’il signalait des publications qui n’étaient honnêtement pas liées à la modération… de personnes avec lesquelles il n’était tout simplement pas d’accord sur leur point de vue. (Exemple très clair d’abus de modération).
Lorsqu’un signalement n’est pas validé (approuvé) et qu’il est en désaccord, le pourcentage du signalant diminue.
Cette métrique est en place, je crois, en partie pour donner à l’équipe de modération une idée si un signalant pourrait abuser du système de signalement.
Mais je vais modifier le titre pour qu’il convienne mieux.
Ce sujet me rappelle la méta-modération. Et cela me rappelle George Santayana :
« Ceux qui ne peuvent se souvenir du passé sont condamnés à le répéter. »
Je recommanderais :
d’examiner la méta-modération de Slashdot
d’examiner la modération de Hacker News
d’examiner l’expérience délibérée d’abandon de Kuro5hin
de regarder la modération et la culture de Metafilter
d’examiner l’histoire et le passé de la modération de Reddit
On peut dire que certains de ces exemples ont échoué, d’autres offrent des leçons précieuses, et quelques-uns continuent de fonctionner très bien après de très nombreuses années.
J’imagine qu’il y aura d’autres histoires que je ne connais pas. Digg, peut-être. Lobsters ? Delicious ? Et bien sûr, nous avons le Fediverse, avec les instances Mastodon, les instances Diaspora, et d’autres. Il pourrait y avoir des leçons à tirer de Google+, en particulier de la fonctionnalité Communautés.
Cependant, je pourrais noter que tous les exemples ci-dessus sont des sites dont l’intention est de monter en puissance et d’être auto-gérés. Les sites Discourse, je pense, sont plus contenus, et sont gouvernés et organisés.