Congelación del nivel de confianza

Nombre de la función

Congelar nivel de confianza

Descripción de la función

  1. Ocurre cuando el usuario no quiere que su nivel de confianza aumente. Porque sabe que a medida que aumenta el nivel de confianza, tendrá más y más responsabilidades. Hay usuarios como yo que solo quieren ser usuarios regulares y no usuarios como líderes.
  2. Otro dato interesante sería congelar el nivel de confianza para usuarios que de alguna manera actúan de forma extraña, no actuando de acuerdo con la política de seguridad de la comunidad. De esta manera, siempre serán usuarios básicos o usuarios regulares. Y así tendrán un mayor nivel de restricción, seguridad, ya que los usuarios con el nivel de confianza congelado no pueden aumentar el nivel de confianza.
  3. A menudo se quiere congelar a los usuarios sin necesidad de cerrar la cuenta.

Razones para implementar la función

  1. Hacer que el nivel de seguridad de Discourse sea más seguro.
  2. Congelar a ciertos usuarios que no siguen la política de la comunidad por alguna razón y, por lo tanto, no pueden recibir un nivel de confianza más alto. Muchos sistemas o software, cuando el usuario viola alguna regla, generalmente la cuenta se cierra o se congela. Aquí sería el caso de la congelación de cuentas. Puede haber un tiempo de congelación de cuenta, tal vez 1 día o 1 año.
  3. Es una medida de seguridad.
  4. El usuario puede solicitar que se le congele. Tal vez porque el usuario no quiera, como yo, ser líder de algo.
  5. Twitter utiliza el término como cuenta suspendida. Normalmente, la cuenta se suspende por: spam, riesgo de seguridad de la cuenta, tuits o comportamiento abusivo. En mi opinión, no sería una cuenta suspendida, sería una cuenta congelada. El usuario todavía tiene la posibilidad de usar la cuenta, no está suspendida.

Referencias

  1. Busqué en Discourse y no encontré mucho relacionado con esta idea.
  2. Si existe alguna idea relacionada, lo mejor sería fusionar esa idea.
  3. Agradecería si alguien pudiera leer y dar su opinión.
  4. https://help.twitter.com/es/managing-your-account/suspended-twitter-accounts

Puedes bloquear a un usuario en un nivel de confianza desde su página de admin/user:

10 Me gusta

Puedes bloquear a un usuario en un nivel de confianza desde su página de administración/usuario:

  • No sabía de esta función, gracias por el comentario.

Estas son mis preguntas, si puedes responder, agradecería la aclaración de esto:

  1. ¿Puedo establecer un tiempo de bloqueo, tal vez por 1 día o 1 año o algo así?
  2. Otra cosa, ¿puedo, como usuario, solicitar que no quiera subir mi nivel de confianza en el sistema Discourse?
  • Mi idea de congelar la cuenta tiene que ver con estas preguntas.

Actualmente no existe una opción de temporizador al bloquear un nivel de confianza; se activa y desactiva de forma manual.

Es posible que los usuarios soliciten que su nivel de confianza sea bloqueado, si el administrador de ese foro está de acuerdo en hacerlo por ellos. :+1:

Acabo de ver tu edición:

Discourse también tiene la opción de Silenciar o Suspender la cuenta de un usuario, si el administrador lo considera necesario. Estas opciones sí tienen temporizadores.

Puedes leer más sobre Bloqueo de Niveles de Confianza, Silenciar y Suspender en la:

2 Me gusta

@JammyDodger Fuiste increíble, aclaraste todas mis dudas. Pero, ¿podrías aclarar si estas ideas complementarias son buenas o no?

Actualmente no hay opción de temporizador al bloquear un nivel de confianza; se activa y desactiva de forma manual.

  • Entonces, ¿lo nuevo que aporta esta publicación a Discourse sería esto: Ofrecer una opción de temporizador al bloquear un nivel de confianza, ya que esto se hace manualmente. Esto es interesante, al observar esto:
    1. ¿Te imaginas configurar este proceso manualmente para 100 usuarios? Sería un poco agotador, observo. Me imagino que sería mejor o más eficiente un proceso automático con algunas reglas. Como, por ejemplo, establecer un tiempo de quizás 1 día o 1 año o algo así.
    2. En Twitter, si no me equivoco, puedes explicar alguna razón para no suspender tu cuenta. Si proporcionas algo que explique que tu cuenta no debe ser suspendida, tu cuenta volverá a la normalidad. Y si no explicas la razón, tu cuenta será suspendida por un período de tiempo. Creo que este escenario podría aplicarse aquí en Discourse. Es decir, si explicas alguna razón para que el nivel de confianza no se bloquee, tu nivel de confianza volverá a la normalidad. Si no explicas por qué, tu nivel de confianza se congelará por un período de tiempo.

Escenario con mediciones automáticas de nivel de confianza bloqueado (Cuando el temporizador que bloquea un nivel de confianza está activo)

  1. Se debe informar al usuario del motivo por el cual su nivel de confianza ha sido bloqueado. nota: Esto ocurre en los siguientes casos: “Spam”, “Seguridad de la cuenta en riesgo”, “Mensajes o comportamiento abusivo”, “Denuncia - cuando los usuarios solicitan que se bloquee su nivel de confianza”.

  2. El usuario puede solicitar que desea que se bloquee el nivel de confianza, pero para ello debe informar el motivo del bloqueo del nivel de confianza. Por ejemplo:

    • “Solicito que se bloquee el nivel de confianza ya que no quiero ser líder de algo”. nota: Esto se refiere al motivo de índole personal, es decir, lo que el usuario desea.
    • “Me voy de viaje y me gustaría bloquear mi nivel de confianza, no sé si podrán hackear mi cuenta en este período”. nota: Esto se refiere al motivo de índole personal, es decir, lo que el usuario desea.
    • “Creo que mi cuenta ha sido hackeada, me gustaría que mi nivel de confianza se congele hasta que la comunidad de Discourse investigue el caso”. nota: Esto se refiere al motivo de seguridad de la cuenta.
  3. Los usuarios pueden solicitar que se bloquee el nivel de confianza de un usuario. Algunas razones:

    1. “El usuario envía spam constantemente”. nota: Se refiere a publicaciones excesivas de un usuario específico o de cuentas falsas que son denunciadas por otros usuarios de la comunidad.
    2. “El usuario no está de acuerdo con la política de la comunidad. Me gustaría que la comunidad evalúe el caso. Entiendo que al solicitar que se bloquee el nivel de confianza de un usuario, yo también puedo ser responsable de alguna manera”. nota: Se refiere a mensajes o comportamientos abusivos percibidos de un usuario específico, denunciados por otros usuarios.
  4. Solo el administrador puede permitir el bloqueo del nivel de confianza de un usuario. Notas:

    • Esto ocurre en los siguientes casos cuando el sistema evalúa como: “Spam”, “Seguridad de la cuenta en riesgo”, “Mensajes o comportamiento abusivo”, “Denuncia - cuando los usuarios solicitan que se bloquee su nivel de confianza”.
    • Esto no ocurre cuando el usuario lo solicita por motivos personales.

Notas importantes

  1. Si ocurren los mismos problemas con el usuario, el nivel de confianza se termina en los siguientes casos: “Spam”, “Seguridad de la cuenta en riesgo”, “Mensajes o comportamiento abusivo”, “Denuncia - cuando los usuarios solicitan que se bloquee su nivel de confianza”.
  2. Número de suspensiones 4. Este número de suspensiones se basa en el número aceptable de suspensiones en Youtube. Youtube tiene el siguiente proceso: “Advertencia”, “strike 1”, “strike 2”, “strike 3”. nota: Si un canal no cumple con la política de Youtube, recibe estas notificaciones, tiene un período para explicar el motivo de la terminación, suspensión o congelación de la cuenta. Podemos tener esta misma medida con el nivel de confianza en Discourse. En los casos que mencioné anteriormente, podría tener sentido tener este número de 4 procesos: “Advertencia”, “strike 1”, “strike 2”, “strike 3”. Según los avisos, el nivel de confianza puede ser suspendido, congelado o terminado. Si el nivel de confianza está congelado o suspendido, hay un período de tiempo en el que el nivel de confianza puede volver a la normalidad.

Es posible que los usuarios soliciten que se bloquee su nivel de confianza, si el administrador de ese foro está de acuerdo en hacerlo por ellos.

  • Como mencionaste y enviaste los comentarios: “los usuarios pueden solicitar que se bloquee su nivel de confianza, si el administrador de este foro está de acuerdo en hacerlo por ellos”, la novedad de la idea de esta publicación sería permitir al usuario solicitar que se bloquee su nivel de confianza.

Discourse también tiene la opción de Silenciar o Suspender la cuenta de un usuario, si el administrador lo considera necesario. Estas opciones sí tienen temporizadores.

  • Esto es realmente interesante y no lo había visto, gracias por hablar de ello, investigaré más y aprenderé más sobre Discourse.
referencias

Líder no es un nivel de confianza al que se llega usando discourse.

Por lo tanto, no es necesario bloquear el nivel de confianza para evitar convertirse en líder.

3 Me gusta

Hay un plugin de Automatización que puede ofrecer una opción para establecer un límite de tiempo en un TL bloqueado. Pero no estoy seguro.

2 Me gusta

¿Hay alguna forma de bloquear los niveles de confianza para todos?

1 me gusta

¿Hay alguna forma de bloquear los niveles de confianza para todos?

  • Basado en los comentarios aquí, no. Pero espero que ayude, mi idea sería sobre esto. En resumen, tendríamos estos 2 procesos:
  1. Los usuarios informan sobre otros usuarios que no siguen la política de la comunidad. El usuario informado recibe una advertencia de que tendrá que explicar si esto es cierto o no. Si el usuario tiene una razón para argumentar que el nivel de confianza bloqueado no debe ser bloqueado, el nivel de confianza volverá a la normalidad. Si el usuario no tiene ninguna razón para argumentar sobre el nivel de confianza bloqueado, entonces el nivel de confianza se congelará o suspenderá por un tiempo que el administrador ya ha establecido para ese usuario específico o conjunto de usuarios que han sido informados.
  2. El usuario solicita por alguna razón que el nivel de confianza se congele o suspenda.

Notas:

  1. En ambos casos, el sistema puede congelar o suspender el nivel de confianza automáticamente. No habría un proceso manual al respecto e incluso no tiene sentido por lo que comenté en resumen, porque solo el administrador puede confirmar si la solicitud de congelación o suspensión del nivel de confianza es justa o no, basándose en la respuesta del usuario que desea que se revise esta solicitud.
  2. Si el usuario no presenta ninguna razón, en teoría se entiende que el nivel de confianza debe congelarse o suspenderse por un tiempo.
  3. Si el usuario solicita que se analice esta situación, solo el administrador la evalúa, al final.
  4. Si el administrador deniega alguna solicitud, debe hablar con el usuario y explicarle el motivo por el cual se denegó la solicitud.
    • El usuario puede entonces presentar una nueva solicitud de revisión, y si el administrador acepta esta nueva solicitud, se cancela la suspensión o congelación del nivel de confianza. De lo contrario, si el usuario no tiene argumentos para hacerlo, se acepta la suspensión o congelación del nivel de confianza.
  5. Creo que estos procesos se realizan de manera similar en cosas como Whatsapp, Twitter.
  6. El enlace que adjunté aquí habla sobre cómo funciona whatsapp, cómo detecta spam. Quizás Discourse tenga alguna idea o perspectiva sobre esto.

Referencias

Quizás usar grupos y este plugin pueda ayudar a lograr al menos parte de ello.

2 Me gusta

@Heliosurge Esta idea me pareció muy interesante. Por lo que he leído sobre el plugin, hay algunas cosas que ya están hechas. En mi caso, para resolver mi problema principal, necesitaría algo como:

Nombre del script Plugin Descripción
Bloquear niveles de confianza automation Si un usuario publica demasiado, incluye demasiadas y/o inapropiadas imágenes, abusa del sistema de banderas o similar, una alternativa a lo anterior es bloquear al usuario en el nivel de confianza 0. Esto limitará el número (y la frecuencia) de temas y publicaciones que el usuario puede crear, además de impedirle incluir demasiadas imágenes/enlaces y evitar que emita banderas. Los niveles de confianza se pueden configurar desde la página de administración del usuario.
Silenciar al usuario automation A los usuarios silenciados se les impide crear nuevos temas, publicaciones, banderas o mensajes privados (PM) en el sitio. Todavía pueden realizar otras acciones, como “dar me gusta” a las publicaciones, leer temas, responder a mensajes privados, etc. Además, pueden comunicarse con los moderadores a través de mensajes privados, por lo que puedes seguir comunicándote con ellos para intentar abordar el comportamiento.
Suspender al usuario automation A los usuarios suspendidos se les impide iniciar sesión y, por lo tanto, realizar cualquier acción en los foros. Una suspensión es el recurso más fuerte posible que tienes para un usuario y debe usarse con moderación. Al igual que el silencio, la suspensión de un usuario se realiza desde la página de administración del usuario. Al igual que el silencio, las suspensiones son por un período de tiempo específico. Es posible que desees suspender al usuario por un corto período de tiempo primero, y si el usuario regresa y continúa con el comportamiento, aumenta el tiempo de suspensión.
Congelación de nivel de confianza trigger-automation En caso de usuarios silenciados o suspendidos, se activa el disparador de Bloqueo de Niveles de Confianza.

Cómo funciona el disparador de congelación de niveles de confianza

  1. Congelación de nivel de confianza - activa estos eventos automáticamente:
  • Silenciar al usuario - Advertencia
  • Suspender al usuario - falta 1
  • Bloquear nivel de confianza - falta 2

Solución final

  1. En resumen, serían 4 plugins. Solo el último plugin llama a los otros plugins, como se ve en el siguiente tema: cómo funciona el disparador de congelación de niveles de confianza.
  2. A pesar de los casos de usuarios que son silenciados o suspendidos, los ejemplos que mencioné anteriormente se hicieron como Spam, Seguridad de la cuenta en riesgo, Mensajes o comportamiento abusivos, Denuncias - cuando los usuarios solicitan que se bloquee su nivel de confianza. Todavía existiría el caso de usuarios que fueron silenciados o suspendidos de forma personal, es decir, autodenunciados:
  • “Solicito que se bloquee el nivel de confianza ya que no quiero ser el líder de algo”.
  • “Viajo y me gustaría bloquear mi nivel de confianza, no sé si podrán hackear mi cuenta en este período”.
  • “Creo que mi cuenta ha sido hackeada, me gustaría que mi nivel de confianza se congele hasta que la comunidad de Discourse investigue el caso”.
  • Nota: Estos usuarios que autodenunciaron su cuenta, pueden solicitar la suspensión de la cuenta, el silencio de la cuenta o incluso en el caso que mencioné el bloqueo del nivel de confianza.
  • Si el usuario presenta alguna prueba de que no debe ser suspendido, silenciado o tener su nivel de confianza protegido, la cuenta es normal.

Notas

  1. Lo hice un par de veces y gracias por los comentarios, JammyDodger ;D Leí este documento y creo que es genial: https://meta.discourse.org/t/discourse-moderation-guide
  2. Dan DeMontmorency - ¿Qué opinas de esta idea, es una buena idea? ¿Es posible crear algo así?

Nuevas ideas

  1. Una alternativa viable puede ser esta, esto podría hacerse con suspend-a-user-via-the-api, silence-user-via-api, add-a-user-to-a-group-via-api, discourse-docs-api-org, auto-suspend-inactive-user, discourse_api_pull_121 - el único problema es que todavía no he visto información de la API sobre el bloqueo del nivel de confianza.
  2. Podemos tener plugins que se comuniquen con la API para esto: silence-user-via-api, auto-suspend-inactive-user, “locking trust level”, suspend-a-user-via-the-api.
  3. Mi idea sería tener el plugin de seguridad de confianza - este plugin se comunica con las siguientes API: silence-user-via-api, auto-suspend-inactive-user, “locking trust level”, suspend-a-user-via-the-api.
  4. Mi sugerencia inicial de que sería genial tener estos endpoints:
  • ${this.url}admin/users/${userId}/groups/report/spam
  • ${this.url}admin/users/${userId}/groups/report/lockingtrustlevel
  • ${this.url}admin/users/${userId}/groups/report/accountsecurityatrisk
  • ${this.url}admin/users/${userId}/groups/report/abusivemessagesorbehavior
  • ${this.url}admin/users/${userId}/groups/userwishthis/lockingtrustlevel
  • ${this.url}admin/users/${userId}/groups/userwishthis/accountsecurityatrisk
  • ${this.url}/admin/users/:user_id/report/spam
  • ${this.url}/admin/users/:user_id/report/lockingtrustlevel
  • ${this.url}/admin/users/:user_id/report/accountsecurityatrisk
  • ${this.url}/admin/users/:user_id/report/abusivemessagesorbehavior
  • ${this.url}/admin/users/:user_id/userwishthis/accountsecurityatrisk
  • ${this.url}/admin/users/:user_id/userwishthis/lockingtrustlevel

Pero algo que ya soluciona sería hacer este poc - prueba de concepto

  • ${this.url}/admin/users/:user_id/silence
  • ${this.url}/admin/users/:user_id/lockingtrustlevel
  • ${this.url}admin/users/${userId}/groups/silence
  • ${this.url}admin/users/${userId}/groups/lockingtrustlevel
2 Me gusta

Creo que eso se podría lograr modificando los requisitos de Nivel de Confianza en todo el sitio, de modo que los usuarios se establezcan en un nivel al principio y luego se establezcan umbrales inalcanzables para que nunca puedan progresar. Puede encontrar una gran cantidad de configuraciones para esto en la sección Niveles de Confianza de la configuración de su administrador. Sin embargo, los Niveles de Confianza son realmente útiles, por lo que quizás desee considerar primero lo que perdería.

3 Me gusta

Automatizar partes de la moderación puede ser muy útil. Tienes un buen diseño para lo que quieres lograr. Para un pequeño equipo de moderación en una comunidad grande, esto puede ser muy útil, siempre y cuando el equipo investigue/audite el sistema regularmente.

2 Me gusta

Mi uso de discourse es bastante diferente al de otros, es menos una comunidad y más un proveedor de autenticación, además de ser un sitio de soporte.

1 me gusta

Otra idea

Imagen 1

Imagen 2

Caso 1:
  1. Existe un botón de reporte para cualquier usuario en la comunidad, esto hace que el sistema sea más autónomo.
  2. Al hacer clic en reportar al usuario, aparece una ventana modal donde se puede elegir la opción de reporte.
  3. Cuando esto sucede, el usuario reportado recibe un mensaje.
  4. Y el reporte es visto por el moderador o administrador.
  5. Si el usuario no responde a este mensaje de denuncia, intentando decir que “es falso” o “no procede”, como sucede en YouTube, el proceso se realiza y finaliza.
  6. Se añade el evento: Bloqueo de Niveles de Confianza.
  7. Si esto vuelve a suceder, se añade el evento: Usuario Silenciado.
  8. Si esto vuelve a suceder, se añade el evento: Usuario Suspendido.
Notas
  1. El administrador o moderador verificará el proceso de denuncia del usuario que reporta a otro usuario.
  2. Si el proceso de denuncia del usuario solicitante tiene sentido, el moderador o administrador reenvía este mensaje al usuario.
  3. Si el usuario tiene alguna razón que explique que la denuncia es falsa, el proceso se cierra.
  4. El administrador o moderador puede verificar la respuesta del usuario reportado y decidir si archivarla o no.
Caso 2

Nota: El usuario cree que su cuenta ha sido hackeada, por lo que el usuario reporta su propia cuenta.

Notas finales

Todos los plugins descritos anteriormente son para automatizar este proceso que describo ahora con imágenes.

¿Cómo ocurre automáticamente el proceso de denuncia?

  1. De usuarios de la comunidad a otros usuarios de la comunidad, es decir, cuando uno o más usuarios reportan a uno o más usuarios - esto sucede cuando uno o más usuarios hacen clic en el botón: “reportar a este usuario a la comunidad” de uno o más usuarios.
  2. Cuando solo se llama a usuarios de tipo: moderadores, administradores o líderes de la comunidad por uno o más usuarios para reportar una publicación - esto se conoce como marcar publicación.
  3. Por el propio usuario, cuando siente que está siendo hackeado, es decir, cuando el usuario se denuncia a sí mismo, notificando al sistema que la cuenta ha sido hackeada - esto sucede cuando uno o más usuarios hacen clic en el botón: “reportar a este usuario a la comunidad” y se autodenuncia.
  4. Se llama a administradores, moderadores o líderes de la comunidad en estos casos:
    • Marcar publicación
    • Usuario reportado por usuarios de la comunidad
    • Usuario reportó su propia cuenta, ya que cree que fue hackeada
  5. En todos estos escenarios, se requieren los plugins que he descrito para automatizar este proceso.
  6. Las opciones automáticas para que los moderadores, administradores o líderes de la comunidad gestionen a los usuarios son estas:
    • Bloqueo de Niveles de Confianza
    • Usuario Silenciado
    • Usuario Suspendido

Nota: Esto solo se puede hacer si hay una lista de usuarios a reportar.

Notas

  1. Genera una lista de usuarios que son reportados.
  2. Con esta lista, podemos hacer lo siguiente. Usuarios que no solicitaron una respuesta - esto se hace al principio.
    • Bloqueo de Niveles de Confianza
    • Usuario Silenciado
    • Usuario Suspendido
  3. Usuarios que solicitaron una respuesta.
    • Se llama a administradores, moderadores y líderes de la comunidad.
    • Si la respuesta reportada del usuario es aceptada o válida, todo se archiva.
    • Si la respuesta no es aceptada, el usuario tiene una última oportunidad para responder, y si no lo hace, el proceso se da por terminado.
  4. Podemos ver esta lista de los casos de notificación más comunes y menos comunes dentro de Discourse. incluyendo el año, mes, semana y período en que ocurre (año tras año, mes a mes, semana a semana) - esa sería mi idea inicial.
  5. En mi opinión, la mejor manera o la forma más fácil de hacerlo, sin dañar el modelado del sistema Discourse o incluso una forma práctica de hacerlo, sería tener una base de datos temporal para recibir reportes de los usuarios, se podría usar una base de datos como mongodb para esto.
    1. Pienso en usar mongodb para recibir información de los usuarios que son reportados.
    2. mongodb funciona bien - mongodb es una base de datos orientada a documentos. Esto es interesante si tienes un gran volumen de datos y esos datos no están estructurados - el famoso nosql.
    3. Además, la base de datos no es permanente, es temporal. mongodb soporta tipos de datos temporales.
    4. Pensé en esta idea cuando leí esto: Configure Discourse to use a separate PostgreSQL server - Pensé en tener una base de datos mongodb separada para esto.
    5. Según esta página: GitHub - discourse/discourse: A platform for community discussion. Free, open, simple., Discourse usa redis y postgresql. ¿Alguna vez has pensado en usar mongodb para este caso que describo?

Resumen de la idea

“usuarios reportados - mongodb”

reports: {

report1:{
 user: "user001",
 linkFlagPost: "https://meta.discourse.org/t/post-test/1122344"
 reason: "flag post",
 reportedUser: "user002"
},

report2:{
 user: "user001",
 reportedUser: "user003",
 report: "spam"
},

report3:{
 user: "user001",
 reportedUser: "user003",
 reason: "mensajes o comportamiento abusivo"
},

report4:{
 user: "user001",
 reportedUser: "user003",
 reason: "el usuario divulga datos ilegales del usuario"
},

report5:{
 user: "user001",
 reportedUser: "user002",
 reason: "el usuario publica enlaces dudosos, enlaces que contienen virus, malware"
},

report6:{
 user: "user001",
 user_report: "user002",
 reason: "especificar otra razón"
},

report7:{
 user: "user004",
 reportedUser: "user005",
 reason: "Creo que mi cuenta ha sido hackeada, me gustaría que mi nivel de confianza se congelara hasta que el caso sea investigado por la comunidad de Discourse"
}
}

Notas

usar sha256 para anonimizar los datos de quien envía el reporte y quien lo recibe

reports: {

report1:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 linkFlagPost: "https://meta.discourse.org/t/post-test/1122344"
 reason: "flag post",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 status1: "proceso iniciado"
 status2: "Bloqueo de Niveles de Confianza"
},

report2:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "spam",
 status1: "proceso iniciado"
 status2: "Bloqueo de Niveles de Confianza"
},

report3:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "mensajes o comportamiento abusivo",
 status1: "proceso iniciado"
 status2: "Bloqueo de Niveles de Confianza"
},

report4:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "el usuario divulga datos ilegales del usuario",
 status1: "proceso iniciado"
 status2: "Bloqueo de Niveles de Confianza"
},

report5:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "el usuario publica enlaces dudosos, enlaces que contienen virus, malware",
 status1: "proceso iniciado"
 status2: "Bloqueo de Niveles de Confianza"
},

report6:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "especificar otra razón",
 status1: "proceso iniciado"
 status2: "Bloqueo de Niveles de Confianza"
},

report7:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "a1dd6837f284625bdb1cb68f1dbc85c5dc4d8b05bae24c94ed5f55c477326ea2",
 reason: "Creo que mi cuenta ha sido hackeada, me gustaría que mi nivel de confianza se congelara hasta que el caso sea investigado por la comunidad de Discourse",
status1: "proceso iniciado"
status2: "Bloqueo de Niveles de Confianza"
},

report8:{
 user: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reportedUser: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
 reason: "Creo que mi cuenta ha sido hackeada, me gustaría que mi nivel de confianza se congelara hasta que el caso sea investigado por la comunidad de Discourse",
   reply: {
    reportedUser: "c23162ffc1a535af2ee09588469194816e60cb437e30d78c5617b5d3f1304d6a",
   reason: "Ver registros en la cuenta - si confirma este proceso, bloquearemos el nivel de confianza",
   replyFrom: "administrator",
   status1: "proceso iniciado"
   status2: "Bloqueo de Niveles de Confianza"
   }
}

Algunos problemas en esta idea, solución
  1. Puede ser una solución incorrecta, necesito la retroalimentación de la comunidad de Discourse para saber si la idea es válida o no.
  2. Implementar esto puede ser complicado.
2 Me gusta