Gel du niveau de confiance

Nom de la fonctionnalité

Gel du niveau de confiance

Description de la fonctionnalité

  1. Se produit lorsque l’utilisateur ne souhaite pas que son niveau de confiance augmente. Parce qu’il sait qu’à mesure que le niveau de confiance augmente, il aura de plus en plus de responsabilités. Il y a des utilisateurs comme moi qui veulent juste être des utilisateurs réguliers et non des leaders.
  2. Un autre fait intéressant serait de geler le niveau de confiance pour les utilisateurs qui agissent étrangement, qui n’agissent pas conformément à la politique de sécurité de la communauté. De cette façon, ils seront toujours des utilisateurs de base ou des utilisateurs réguliers. Et ainsi, ils auront un niveau de restriction et de sécurité plus élevé, car les utilisateurs avec le gel du niveau de confiance ne peuvent pas augmenter leur niveau de confiance.
  3. Souvent, vous voulez geler des utilisateurs sans avoir nécessairement à fermer leur compte.

Raisons de la mise en œuvre de la fonctionnalité

  1. Rendre le niveau de sécurité de Discourse plus sûr.
  2. Geler certains utilisateurs qui ne suivent pas la politique de la communauté pour une raison quelconque et ne peuvent donc pas recevoir un niveau de confiance plus élevé. De nombreux systèmes ou logiciels, lorsque l’utilisateur enfreint une règle, le compte est généralement fermé ou gelé. Ce serait le cas du gel de compte. Il peut y avoir une période de gel de compte, peut-être 1 jour ou 1 an.
  3. C’est une mesure de sécurité.
  4. L’utilisateur peut demander à être gelé. Peut-être parce que l’utilisateur ne veut pas, comme moi, être le leader de quelque chose.
  5. Twitter utilise le terme de compte suspendu. Habituellement, le compte est suspendu pour : spam, risque de sécurité du compte, tweets ou comportement abusif. À mon avis, ce ne serait pas un compte suspendu, ce serait un compte gelé. L’utilisateur a toujours la possibilité d’utiliser le compte, il n’est pas suspendu.

Références

  1. J’ai cherché dans Discourse et je n’ai pas trouvé grand-chose en rapport avec cette idée.
  2. S’il existe une idée connexe, le mieux serait de fusionner cette idée.
  3. Si quelqu’un peut lire et faire part de ses commentaires, je l’apprécierais.
  4. https://help.twitter.com/en/managing-your-account/suspended-twitter-accounts

Vous pouvez verrouiller un utilisateur à un niveau de confiance depuis sa page admin/user :

10 « J'aime »

Vous pouvez bloquer un utilisateur à un niveau de confiance depuis sa page d’administration/utilisateur :

  • Je ne connaissais pas cette fonctionnalité, merci pour votre retour.

Voici mes questions, si vous pouvez y répondre, j’apprécierais une clarification à ce sujet :

  1. Puis-je définir une durée de verrouillage, peut-être pour 1 jour ou 1 an ou autre chose ?
  2. Autre chose, puis-je, en tant qu’utilisateur, demander à ne pas augmenter mon niveau de confiance dans le système Discourse ?
  • Mon idée de gel de compte est liée à ces questions.

Il n’y a actuellement aucune option de minuteur lors du verrouillage d’un niveau de confiance ; il est activé et désactivé manuellement.

Il est possible pour les utilisateurs de demander le verrouillage de leur niveau de confiance, si l’administrateur de ce forum est d’accord pour le faire pour eux. :+1:

Je viens de remarquer votre modification :

Discourse a également la possibilité de faire taire ou de suspendre le compte d’un utilisateur, si l’administrateur le juge nécessaire. Ces options ont des minuteurs.

Vous pouvez en lire plus sur le verrouillage des niveaux de confiance, le silence et la suspension dans le :

2 « J'aime »

@JammyDodger Tu étais incroyable, tu as clarifié tous mes doutes. Mais, pourrais-tu clarifier si ces idées complémentaires sont bonnes ou pas ?

Il n’y a actuellement aucune option de minuterie lors du verrouillage d’un niveau de confiance ; il est activé et désactivé manuellement.

  • Donc, ce que ce post apporte de nouveau à Discourse serait ceci : Offrir une option de minuterie lors du verrouillage d’un niveau de confiance, car cela se fait manuellement. C’est intéressant, en regardant cette observation :
    1. Peux-tu imaginer configurer ce processus manuellement pour 100 utilisateurs ? Ce serait un peu épuisant, j’observe. J’imagine que ce serait mieux ou plus efficace, un processus automatique avec quelques règles. Comme, par exemple, définir une durée de peut-être 1 jour ou 1 an ou quelque chose comme ça.
    2. Sur Twitter, si je ne me trompe pas, tu peux expliquer une raison de ne pas suspendre ton compte. Si tu fournis quelque chose qui explique que ton compte ne devrait pas être suspendu, ton compte reviendra à la normale. Et si tu n’expliques pas la raison, ton compte sera suspendu pour une période de temps. Je pense que ce scénario pourrait être appliqué ici dans Discourse. C’est-à-dire, si tu expliques une raison de ne pas avoir le niveau de confiance verrouillé, ton niveau de confiance reviendra à la normale. Si tu n’expliques pas pourquoi, ton niveau de confiance sera gelé pour une période de temps.

Scénario avec mesures automatiques de niveau de confiance verrouillé (Lorsque la minuterie qui bloque un niveau de confiance est active)

  1. L’utilisateur doit être informé de la raison pour laquelle son niveau de confiance a été bloqué. note : Cela se produit dans les cas suivants : “Spam”, “Sécurité du compte à risque”, “Messages ou comportements abusifs”, “Signalement - lorsque les utilisateurs demandent le blocage de leur niveau de confiance”.

  2. L’utilisateur peut demander à ce que son niveau de confiance soit bloqué, mais pour cela il doit indiquer la raison du blocage du niveau de confiance. Par exemple :

    • “Je demande que le niveau de confiance soit bloqué car je ne veux pas être le leader de quelque chose”. note : Ceci fait référence à la raison d’ordre personnel, c’est-à-dire ce que l’utilisateur souhaite.
    • “Je suis en voyage et j’aimerais bloquer mon niveau de confiance, je ne sais pas s’ils pourront pirater mon compte pendant cette période”. note : Ceci fait référence à la raison d’ordre personnel, c’est-à-dire ce que l’utilisateur souhaite.
    • “Je pense que mon compte a été piraté, j’aimerais que mon niveau de confiance soit gelé jusqu’à ce que l’affaire soit examinée par la communauté Discourse”. note : Ceci fait référence à la raison de sécurité du compte.
  3. Les utilisateurs peuvent demander le blocage du niveau de confiance d’un utilisateur. Quelques raisons :

    1. “L’utilisateur envoie constamment du spam”. note : Fait référence aux publications excessives d’un utilisateur spécifique ou de comptes frauduleux signalés par d’autres utilisateurs de la communauté.
    2. “L’utilisateur n’est pas d’accord avec la politique de la communauté. J’aimerais que la communauté examine le cas. Je comprends qu’en demandant le blocage du niveau de confiance d’un utilisateur, je puisse aussi être tenu responsable de cela.” note : Fait référence aux messages ou comportements abusifs perçus d’un utilisateur spécifique signalés par d’autres utilisateurs.
  4. Seul l’administrateur peut autoriser le blocage du niveau de confiance d’un utilisateur. Notes :

    • Cela se produit dans les cas suivants lorsque le système évalue comme : “Spam”, “Sécurité du compte à risque”, “Messages ou comportements abusifs”, “Signalement - lorsque les utilisateurs demandent le blocage de leur niveau de confiance”.
    • Cela ne se produit pas lorsque l’utilisateur le demande pour des raisons personnelles.

Notes importantes

  1. Si les mêmes problèmes surviennent avec l’utilisateur, le niveau de confiance est résilié dans les cas suivants : “Spam”, “Sécurité du compte à risque”, “Messages ou comportements abusifs”, “Signalement - lorsque les utilisateurs demandent le blocage de leur niveau de confiance”.
  2. Nombre de suspensions 4. Ce nombre de suspensions est basé sur le nombre acceptable de suspensions sur Youtube. Youtube a le processus suivant : “Avertissement”, “1ère réclamation”, “2ème réclamation”, “3ème réclamation”. note : Si une chaîne ne respecte pas la politique de Youtube, elle reçoit ces notifications, elle a une certaine période pour expliquer la raison de la résiliation, de la suspension ou du gel du compte. Nous pouvons avoir cette même mesure avec le niveau de confiance dans Discourse. Dans les cas que j’ai mentionnés ci-dessus, il pourrait être logique d’avoir ce nombre de 4 processus : “Avertissement”, “1ère réclamation”, “2ème réclamation”, “3ème réclamation”. Selon les avis, le niveau de confiance peut être suspendu, gelé ou résilié. Si le niveau de confiance est gelé ou suspendu, il y a une période pendant laquelle le niveau de confiance peut revenir à la normale.

Il est possible pour les utilisateurs de demander le verrouillage de leur niveau de confiance, si l’administrateur de ce forum accepte de le faire pour eux.

  • Comme vous l’avez mentionné et envoyé le retour : “les utilisateurs peuvent demander le verrouillage de leur niveau de confiance, si l’administrateur de ce forum accepte de le faire pour eux.”, la nouveauté de l’idée de ce post serait de permettre à l’utilisateur de demander le verrouillage de son niveau de confiance.

Discourse a également la possibilité de faire taire ou de suspendre le compte d’un utilisateur, si l’administrateur le juge nécessaire. Ces options ont des minuteries.

  • C’est vraiment intéressant et je ne l’avais pas vu, merci d’en avoir parlé, je ferai plus de recherches et j’en apprendrai davantage sur Discourse.
références

Leader n’est pas un niveau de confiance que l’on atteint en utilisant Discourse.

Donc, verrouiller le niveau de confiance n’est pas nécessaire pour éviter de devenir leader.

3 « J'aime »

Il existe un plugin d’automatisation qui pourrait offrir une option pour définir une limite de temps sur un TL verrouillé. Mais je ne suis pas sûr.

2 « J'aime »

Y a-t-il un moyen de verrouiller les niveaux de confiance pour tout le monde ?

1 « J'aime »

Y a-t-il un moyen de verrouiller les niveaux de confiance pour tout le monde ?

  • D’après les commentaires ici, non. Mais j’espère que cela vous aidera, mon idée serait la suivante. En bref, nous aurions ces 2 processus :
  1. Les utilisateurs signalent d’autres utilisateurs qui ne respectent pas la politique de la communauté. L’utilisateur signalé reçoit un avertissement lui demandant s’il doit expliquer si cela est vrai ou non. Si l’utilisateur a une raison d’argumenter que le niveau de confiance verrouillé ne devrait pas être verrouillé, le niveau de confiance reviendra à la normale. Si l’utilisateur n’a aucune raison d’argumenter sur le niveau de confiance verrouillé, alors le niveau de confiance sera gelé ou suspendu pendant une période que l’administrateur a déjà définie pour cet utilisateur spécifique ou cet ensemble d’utilisateurs qui ont été signalés.
  2. L’utilisateur demande pour une raison quelconque que le niveau de confiance soit gelé ou suspendu.

Notes :

  1. Dans ces 2 cas, le système peut geler ou suspendre le niveau de confiance automatiquement. Il n’y aurait aucun processus manuel à cet égard et cela n’a même pas de sens par rapport à ce que j’ai dit en bref - Parce que seul l’administrateur peut confirmer si la demande de gel ou de suspension du niveau de confiance est juste ou non en fonction de la réponse de l’utilisateur qui souhaite que cette demande soit révisée.
  2. Si l’utilisateur ne présente aucune raison, en théorie, il est entendu que le niveau de confiance doit être gelé ou suspendu pendant un certain temps.
  3. Si l’utilisateur demande que cette situation soit analysée, seul l’administrateur l’évalue - à la fin.
  4. Si une demande est refusée par l’administrateur, l’administrateur doit parler à l’utilisateur et lui indiquer la raison pour laquelle la demande a été refusée.
    • L’utilisateur peut alors soumettre une nouvelle demande de révision, et si l’administrateur accepte cette nouvelle demande, la suspension ou le gel du niveau de confiance est annulé. Sinon, si l’utilisateur n’a aucun argument pour le faire, la suspension ou le gel du niveau de confiance est accepté.
  5. Je pense que ces processus sont effectués de la même manière sur des plateformes comme Whatsapp, Twitter.
  6. Le lien que j’ai joint ici parle du fonctionnement de Whatsapp - comment il détecte le spam - Peut-être que Discourse a une idée ou une perspective à ce sujet.

Références

Peut-être que l’utilisation de groupes et de ce plugin peut aider à accomplir au moins une partie de cela.

2 « J'aime »

@Heliosurge Cette idée m’a semblé très intéressante. D’après ce que j’ai lu sur le plugin, certaines choses sont déjà faites. Dans mon cas, pour résoudre mon problème principal, j’aurais besoin de quelque chose comme :

Nom du script Plugin Description
Verrouillage des niveaux de confiance automation Si un utilisateur publie trop, inclut trop d’images et/ou inappropriées, abuse du système de signalement, ou similaire, une alternative à ce qui précède est de verrouiller l’utilisateur au niveau de confiance 0. Cela limitera le nombre (et la fréquence) de sujets et de publications que l’utilisateur peut créer, tout en l’empêchant d’inclure trop d’images/liens et de signaler. Les niveaux de confiance peuvent être configurés depuis la page d’administration de l’utilisateur.
Utilisation du mode silencieux pour l’utilisateur automation Les utilisateurs en mode silencieux sont empêchés de créer de nouveaux sujets, publications, signalements ou messages privés sur le site. Ils peuvent toujours effectuer d’autres actions, comme « aimer » les publications, lire les sujets, répondre aux messages privés, etc. De plus, ils peuvent communiquer avec les modérateurs par message privé, vous pouvez donc continuer à communiquer avec eux pour tenter de résoudre le comportement.
Suspension de l’utilisateur automation Les utilisateurs suspendus sont empêchés de se connecter, et donc d’effectuer toute action sur les forums. Une suspension est le recours le plus fort possible pour un utilisateur et doit être utilisée avec parcimonie. Comme le silence, la suspension d’un utilisateur se fait depuis la page d’administration de l’utilisateur. Comme le silence, les suspensions sont pour une période de temps spécifique. Vous pourriez vouloir suspendre l’utilisateur pour une courte période d’abord, et si l’utilisateur revient et continue le comportement, augmenter la durée de la suspension.
Blocage des niveaux de confiance trigger-automation En cas d’utilisateurs mis en sourdine ou suspendus, le déclencheur de verrouillage des niveaux de confiance est déclenché.

Comment fonctionne le déclencheur de blocage des niveaux de confiance

  1. Blocage des niveaux de confiance - déclencher ces événements automatiquement :
  • Utilisation du mode silencieux pour l’utilisateur - Avertissement
  • Suspension de l’utilisateur - avertissement 1
  • Verrouillage des niveaux de confiance - avertissement 2

Solution finale

  1. En bref, il s’agirait de 4 plugins. Seul le dernier plugin appelle les autres plugins, comme vu dans le sujet suivant : comment fonctionne le déclencheur de blocage des niveaux de confiance.
  2. Malgré les cas d’utilisateurs mis en sourdine ou suspendus, les exemples que j’ai mentionnés ci-dessus ont été traités comme Spam, Risque de sécurité du compte, Messages ou comportements abusifs, Signalement - lorsque les utilisateurs demandent que leur niveau de confiance soit bloqué. Il y aurait toujours le cas des utilisateurs qui ont été mis en sourdine ou suspendus sur une base personnelle, c’est-à-dire auto-signalement :
  • « Je demande que le niveau de confiance soit bloqué car je ne veux pas être le leader de quelque chose ».
  • « Je voyage et j’aimerais bloquer mon niveau de confiance, je ne sais pas s’ils pourront pirater mon compte pendant cette période ».
  • « Je pense que mon compte a été piraté, j’aimerais que mon niveau de confiance soit gelé jusqu’à ce que le cas soit étudié par la communauté Discourse ».
  • Note : Ces utilisateurs qui ont auto-signalé leur compte - ils peuvent demander la suspension du compte, la mise en sourdine du compte ou même dans le cas que j’ai mentionné le blocage du niveau de confiance.
  • Si l’utilisateur présente des preuves qu’il ne devrait pas être suspendu, mis en sourdine ou avoir son niveau de confiance protégé, le compte est normal.

Notes

  1. Je l’ai fait plusieurs fois et merci pour les commentaires, JammyDodger ;D J’ai lu ce document et je pense qu’il est plutôt cool : https://meta.discourse.org/t/discourse-moderation-guide
  2. Dan DeMontmorency - Qu’en pensez-vous, est-ce une bonne idée ? Est-il possible de créer quelque chose comme ça ?

Nouvelles idées

  1. Une alternative viable pourrait être celle-ci, cela pourrait être fait avec suspend-a-user-via-the-api, silence-user-via-api, add-a-user-to-a-group-via-api, discourse-docs-api-org, auto-suspend-inactive-user, discourse_api_pull_121 - le seul problème est que je n’ai pas encore vu d’informations de l’API sur le verrouillage du niveau de confiance.
  2. Nous pouvons avoir des plugins qui communiquent avec l’API pour cela : silence-user-via-api, auto-suspend-inactive-user, “locking trust level”, suspend-a-user-via-the-api.
  3. Mon idée serait d’avoir le plugin de sécurité de confiance - ce plugin communique avec les API suivantes : silence-user-via-api, auto-suspend-inactive-user, “locking trust level”, suspend-a-user-via-the-api.
  4. Ma suggestion initiale serait qu’il serait vraiment cool d’avoir ces points de terminaison :
  • ${this.url}admin/users/${userId}/groups/report/spam
  • ${this.url}admin/users/${userId}/groups/report/lockingtrustlevel
  • ${this.url}admin/users/${userId}/groups/report/accountsecurityatrisk
  • ${this.url}admin/users/${userId}/groups/report/abusivemessagesorbehavior
  • ${this.url}admin/users/${userId}/groups/userwishthis/lockingtrustlevel
  • ${this.url}admin/users/${userId}/groups/userwishthis/accountsecurityatrisk
  • ${this.url}/admin/users/:user_id/report/spam
  • ${this.url}/admin/users/:user_id/report/lockingtrustlevel
  • ${this.url}/admin/users/:user_id/report/accountsecurityatrisk
  • ${this.url}/admin/users/:user_id/report/abusivemessagesorbehavior
  • ${this.url}/admin/users/:user_id/userwishthis/accountsecurityatrisk
  • ${this.url}/admin/users/:user_id/userwishthis/lockingtrustlevel

Mais quelque chose qui résoudrait déjà le problème serait de faire cette preuve de concept (poc)

  • ${this.url}/admin/users/:user_id/silence
  • ${this.url}/admin/users/:user_id/lockingtrustlevel
  • ${this.url}admin/users/${userId}/groups/silence
  • ${this.url}admin/users/${userId}/groups/lockingtrustlevel
2 « J'aime »

Je pense que cela pourrait être réalisé en ajustant les exigences de niveau de confiance sur l’ensemble du site, de sorte que les utilisateurs soient définis sur un niveau au départ, puis que des seuils impossibles à atteindre soient définis afin qu’ils ne puissent jamais progresser. Vous pouvez trouver une multitude de paramètres pour cela dans la section Niveaux de confiance de vos paramètres d’administration. Bien que les niveaux de confiance soient vraiment utiles, vous voudrez peut-être d’abord réfléchir à ce à quoi vous renonceriez.

3 « J'aime »

L’automatisation de certaines parties de la modération peut être très utile. Vous avez une bonne structure pour ce que vous voulez accomplir. Pour une petite équipe de modération dans une grande communauté, cela peut être très utile tant que l’équipe enquête/audite régulièrement le système.

2 « J'aime »

Mon utilisation de Discourse est assez différente des autres. C’est moins une communauté et plus un fournisseur d’authentification, en plus d’être un site de support.

1 « J'aime »

Une autre idée

Image 1

Image 2

Cas 1 :
  1. Il existe un bouton de signalement pour tout utilisateur de la communauté, ce qui rend le système plus autonome.
  2. Lorsque vous cliquez sur signaler l’utilisateur, une fenêtre modale apparaît, où vous pouvez choisir l’option de signalement.
  3. Lorsque cela se produit, l’utilisateur signalé reçoit un message.
  4. Et le signalement est vu par le modérateur ou l’administrateur.
  5. Si l’utilisateur ne répond pas à ce message de dénonciation - en essayant à son tour de dire que “c’est faux” ou “cela ne procède pas”, comme cela se produit sur YouTube, le processus est terminé.
  6. L’événement est ajouté : Verrouillage des niveaux de confiance.
  7. Si cela se reproduit, l’événement est ajouté : Utilisateur réduit au silence.
  8. Si cela se reproduit, l’événement est ajouté : Suspendre l’utilisateur.
Notes
  1. L’administrateur ou le modérateur vérifiera le processus de plainte de l’utilisateur qui signale un autre utilisateur.
  2. Si le processus de plainte de l’utilisateur demandeur a du sens (le modérateur ou l’administrateur) transmet ce message à l’utilisateur.
  3. Si l’utilisateur a une raison d’expliquer que la plainte est fausse, le processus est clos.
  4. L’administrateur ou le modérateur peut vérifier la réponse de l’utilisateur signalé et décider de l’archiver ou non.
Cas 2


Note : L’utilisateur pense que le compte a été piraté, donc l’utilisateur signale son propre compte.

Notes finales

Tous les plugins décrits ci-dessus servent à automatiser ce processus que je décris maintenant avec des images.

Comment le processus de dénonciation se déroule-t-il automatiquement ?

  1. Des utilisateurs de la communauté à d’autres utilisateurs de la communauté, c’est-à-dire lorsqu’un ou plusieurs utilisateurs signalent un ou plusieurs utilisateurs - cela se produit lorsqu’un ou plusieurs utilisateurs cliquent sur le bouton : “signaler cet utilisateur à la communauté” de un ou plusieurs utilisateurs.
  2. Lorsque seuls les utilisateurs de type : modérateurs, administrateurs ou chefs de communauté sont appelés par un ou plusieurs utilisateurs pour signaler un message - c’est ce qu’on appelle le signalement de message.
  3. Par l’utilisateur lui-même, lorsqu’il a l’impression d’être piraté, c’est-à-dire lorsque l’utilisateur se dénonce, informant le système que le compte a été piraté - cela se produit lorsqu’un ou plusieurs utilisateurs cliquent sur le bouton : “signaler cet utilisateur à la communauté” et qu’il se signale lui-même.
  4. Les administrateurs, modérateurs ou chefs de communauté sont appelés dans les cas suivants :
    • Signalement de message
    • Utilisateur signalé par les utilisateurs de la communauté
    • Utilisateur a signalé son propre compte, car il pense qu’il a été piraté
  5. Dans tous ces scénarios, les plugins que j’ai décrits sont nécessaires pour automatiser ce processus.
  6. Les options automatiques pour les modérateurs, administrateurs ou chefs de communauté pour gérer les utilisateurs sont les suivantes :
    • Verrouillage des niveaux de confiance
    • Utilisateur réduit au silence
    • Suspendre l’utilisateur

Note : Cela ne peut être fait que s’il existe une liste d’utilisateurs à signaler.

Notes

  1. Génère une liste d’utilisateurs signalés.
  2. Avec cette liste, nous pouvons faire ce qui suit. Les utilisateurs qui n’ont pas demandé de réponse - cela est fait dans un premier temps.
    • Verrouillage des niveaux de confiance
    • Utilisateur réduit au silence
    • Suspendre l’utilisateur
  3. Les utilisateurs qui ont demandé une réponse.
    • Les administrateurs, modérateurs et chefs de communauté sont appelés.
    • Si la réponse signalée de l’utilisateur est acceptée ou valide, tout est archivé.
    • Si la réponse n’est pas acceptée, l’utilisateur a une dernière chance de répondre, et s’il ne le fait pas, le processus est terminé.
  4. Nous pouvons voir cette liste des cas de notification les plus courants et les moins courants dans Discourse. y compris l’année, le mois, la semaine et la période où cela se produit (d’une année à l’autre, d’un mois à l’autre, d’une semaine à l’autre) - ce serait mon idée initiale.
  5. À mon avis, la meilleure façon ou la façon la plus simple de le faire - sans nuire à la modélisation du système Discourse ni même à une manière pratique de le faire, serait d’avoir une base de données temporaire pour recevoir les signalements des utilisateurs, une base de données comme mongodb pourrait être utilisée pour cela.
    1. Je pense utiliser mongodb pour recevoir des informations des utilisateurs qui sont signalés.
    2. mongodb fonctionne bien - mongodb est une base de données orientée document. C’est intéressant si vous avez un volume élevé de données et que ces données ne sont pas structurées - le fameux nosql.
    3. De plus, la base de données n’est pas permanente, elle est temporaire. mongodb prend en charge les types de données temporaires.
    4. J’ai pensé à cette idée en lisant ceci : Configure Discourse to use a separate PostgreSQL server - J’ai pensé avoir une base de données mongodb séparée pour cela.
    5. Selon cette page : GitHub - discourse/discourse: A platform for community discussion. Free, open, simple. , Discourse utilise redis et postgresql. Avez-vous déjà pensé à utiliser mongodb pour ce cas que j’ai décrit ?

Résumé de l’idée

“utilisateurs signalés - mongodb”

reports: {
report1:{
 user: "user001",
 linkFlagPost: "https://meta.discourse.org/t/post-test/1122344"
 reason: "flag post",
 reportedUser: "user002"
},
report2:{
 user: "user001",
 reportedUser: "user003",
 report: "spam"
},
report3:{
 user: "user001",
 reportedUser: "user003",
 reason: "abusive messages or behavior"
},
report4:{
 user: "user001",
 reportedUser: "user003",
 reason: "user discloses illegal user data"
},
report5:{
 user: "user001",
 reportedUser: "user002",
 reason: "user posts dubious links, links that contain viruses, malware"
},
report6:{
 user: "user001",
 user_report: "user002",
 reason: "specify another reason"
},
report7:{
 user: "user004",
 reportedUser: "user005",
 reason: "I think my account has been hacked, I would like my trust level to be frozen until the case is investigated by the Discourse community"
}
}

Notes

Utiliser sha256 pour anonymiser les données de celui qui envoie le signalement et de celui qui le reçoit.

reports: {
report1:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 linkFlagPost: "https://meta.discourse.org/t/post-test/1122344"
 reason: "flag post",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 status1: "filed process"
 status2: "Locking Trust Levels"
},
report2:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "spam",
 status1: "filed process"
 status2: "Locking Trust Levels"
},
report3:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "abusive messages or behavior",
 status1: "filed process"
 status2: "Locking Trust Levels"
},
report4:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "user discloses illegal user data",
 status1: "filed process"
 status2: "Locking Trust Levels"
},
report5:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "user posts dubious links, links that contain viruses, malware",
 status1: "filed process"
 status2: "Locking Trust Levels"
},
report6:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "specify another reason",
 status1: "filed process"
 status2: "Locking Trust Levels"
},
report7:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "I think my account has been hacked, I would like my trust level to be frozen until the case is investigated by the Discourse community",
status1: "filed process"
status2: "Locking Trust Levels"
},
report8:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reason: "I think my account has been hacked, I would like my trust level to be frozen until the case is investigated by the Discourse community",
 reply: {
    reportedUser: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
   reason: "View logs in account - if you confirm this process, we will lock the trust level",
   replyFrom: "administrator",
   status1: "filed process"
   status2: "Locking Trust Levels"
   }
}
Quelques problèmes dans cette idée, solution
  1. Il peut s’agir d’une mauvaise solution, j’ai besoin des commentaires de la communauté Discourse pour savoir si l’idée est valide ou non.
  2. La mise en œuvre peut être compliquée.
2 « J'aime »