Une autre idée
Image 1
Image 2
Cas 1 :
- Il existe un bouton de signalement pour tout utilisateur de la communauté, ce qui rend le système plus autonome.
- Lorsque vous cliquez sur signaler l’utilisateur, une fenêtre modale apparaît, où vous pouvez choisir l’option de signalement.
- Lorsque cela se produit, l’utilisateur signalé reçoit un message.
- Et le signalement est vu par le modérateur ou l’administrateur.
- Si l’utilisateur ne répond pas à ce message de dénonciation - en essayant à son tour de dire que “c’est faux” ou “cela ne procède pas”, comme cela se produit sur YouTube, le processus est terminé.
- L’événement est ajouté : Verrouillage des niveaux de confiance.
- Si cela se reproduit, l’événement est ajouté : Utilisateur réduit au silence.
- Si cela se reproduit, l’événement est ajouté : Suspendre l’utilisateur.
Notes
- L’administrateur ou le modérateur vérifiera le processus de plainte de l’utilisateur qui signale un autre utilisateur.
- Si le processus de plainte de l’utilisateur demandeur a du sens (le modérateur ou l’administrateur) transmet ce message à l’utilisateur.
- Si l’utilisateur a une raison d’expliquer que la plainte est fausse, le processus est clos.
- L’administrateur ou le modérateur peut vérifier la réponse de l’utilisateur signalé et décider de l’archiver ou non.
Cas 2
Note : L’utilisateur pense que le compte a été piraté, donc l’utilisateur signale son propre compte.
Notes finales
Tous les plugins décrits ci-dessus servent à automatiser ce processus que je décris maintenant avec des images.
Comment le processus de dénonciation se déroule-t-il automatiquement ?
- Des utilisateurs de la communauté à d’autres utilisateurs de la communauté, c’est-à-dire lorsqu’un ou plusieurs utilisateurs signalent un ou plusieurs utilisateurs - cela se produit lorsqu’un ou plusieurs utilisateurs cliquent sur le bouton : “signaler cet utilisateur à la communauté” de un ou plusieurs utilisateurs.
- Lorsque seuls les utilisateurs de type : modérateurs, administrateurs ou chefs de communauté sont appelés par un ou plusieurs utilisateurs pour signaler un message - c’est ce qu’on appelle le signalement de message.
- Par l’utilisateur lui-même, lorsqu’il a l’impression d’être piraté, c’est-à-dire lorsque l’utilisateur se dénonce, informant le système que le compte a été piraté - cela se produit lorsqu’un ou plusieurs utilisateurs cliquent sur le bouton : “signaler cet utilisateur à la communauté” et qu’il se signale lui-même.
- Les administrateurs, modérateurs ou chefs de communauté sont appelés dans les cas suivants :
- Signalement de message
- Utilisateur signalé par les utilisateurs de la communauté
- Utilisateur a signalé son propre compte, car il pense qu’il a été piraté
- Dans tous ces scénarios, les plugins que j’ai décrits sont nécessaires pour automatiser ce processus.
- Les options automatiques pour les modérateurs, administrateurs ou chefs de communauté pour gérer les utilisateurs sont les suivantes :
- Verrouillage des niveaux de confiance
- Utilisateur réduit au silence
- Suspendre l’utilisateur
Note : Cela ne peut être fait que s’il existe une liste d’utilisateurs à signaler.
Notes
- Génère une liste d’utilisateurs signalés.
- Avec cette liste, nous pouvons faire ce qui suit. Les utilisateurs qui n’ont pas demandé de réponse - cela est fait dans un premier temps.
- Verrouillage des niveaux de confiance
- Utilisateur réduit au silence
- Suspendre l’utilisateur
- Les utilisateurs qui ont demandé une réponse.
- Les administrateurs, modérateurs et chefs de communauté sont appelés.
- Si la réponse signalée de l’utilisateur est acceptée ou valide, tout est archivé.
- Si la réponse n’est pas acceptée, l’utilisateur a une dernière chance de répondre, et s’il ne le fait pas, le processus est terminé.
- Nous pouvons voir cette liste des cas de notification les plus courants et les moins courants dans Discourse. y compris l’année, le mois, la semaine et la période où cela se produit (d’une année à l’autre, d’un mois à l’autre, d’une semaine à l’autre) - ce serait mon idée initiale.
- À mon avis, la meilleure façon ou la façon la plus simple de le faire - sans nuire à la modélisation du système Discourse ni même à une manière pratique de le faire, serait d’avoir une base de données temporaire pour recevoir les signalements des utilisateurs, une base de données comme mongodb pourrait être utilisée pour cela.
- Je pense utiliser mongodb pour recevoir des informations des utilisateurs qui sont signalés.
- mongodb fonctionne bien - mongodb est une base de données orientée document. C’est intéressant si vous avez un volume élevé de données et que ces données ne sont pas structurées - le fameux nosql.
- De plus, la base de données n’est pas permanente, elle est temporaire. mongodb prend en charge les types de données temporaires.
- J’ai pensé à cette idée en lisant ceci : Configure Discourse to use a separate PostgreSQL server - J’ai pensé avoir une base de données mongodb séparée pour cela.
- Selon cette page : GitHub - discourse/discourse: A platform for community discussion. Free, open, simple. , Discourse utilise redis et postgresql. Avez-vous déjà pensé à utiliser mongodb pour ce cas que j’ai décrit ?
Résumé de l’idée
“utilisateurs signalés - mongodb”
reports: {
report1:{
user: "user001",
linkFlagPost: "https://meta.discourse.org/t/post-test/1122344"
reason: "flag post",
reportedUser: "user002"
},
report2:{
user: "user001",
reportedUser: "user003",
report: "spam"
},
report3:{
user: "user001",
reportedUser: "user003",
reason: "abusive messages or behavior"
},
report4:{
user: "user001",
reportedUser: "user003",
reason: "user discloses illegal user data"
},
report5:{
user: "user001",
reportedUser: "user002",
reason: "user posts dubious links, links that contain viruses, malware"
},
report6:{
user: "user001",
user_report: "user002",
reason: "specify another reason"
},
report7:{
user: "user004",
reportedUser: "user005",
reason: "I think my account has been hacked, I would like my trust level to be frozen until the case is investigated by the Discourse community"
}
}
Notes
Utiliser sha256 pour anonymiser les données de celui qui envoie le signalement et de celui qui le reçoit.
reports: {
report1:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
linkFlagPost: "https://meta.discourse.org/t/post-test/1122344"
reason: "flag post",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
status1: "filed process"
status2: "Locking Trust Levels"
},
report2:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
reason: "spam",
status1: "filed process"
status2: "Locking Trust Levels"
},
report3:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
reason: "abusive messages or behavior",
status1: "filed process"
status2: "Locking Trust Levels"
},
report4:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
reason: "user discloses illegal user data",
status1: "filed process"
status2: "Locking Trust Levels"
},
report5:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
reason: "user posts dubious links, links that contain viruses, malware",
status1: "filed process"
status2: "Locking Trust Levels"
},
report6:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
reason: "specify another reason",
status1: "filed process"
status2: "Locking Trust Levels"
},
report7:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
reason: "I think my account has been hacked, I would like my trust level to be frozen until the case is investigated by the Discourse community",
status1: "filed process"
status2: "Locking Trust Levels"
},
report8:{
user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reportedUser: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reason: "I think my account has been hacked, I would like my trust level to be frozen until the case is investigated by the Discourse community",
reply: {
reportedUser: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
reason: "View logs in account - if you confirm this process, we will lock the trust level",
replyFrom: "administrator",
status1: "filed process"
status2: "Locking Trust Levels"
}
}
Quelques problèmes dans cette idée, solution
- Il peut s’agir d’une mauvaise solution, j’ai besoin des commentaires de la communauté Discourse pour savoir si l’idée est valide ou non.
- La mise en œuvre peut être compliquée.



