Transparenz in der Moderation ist wirklich wichtig

https://shagunjhaver.com/files/research/jhaver-2019-transparency.pdf

Spielt Transparenz bei der Moderation wirklich eine Rolle? Nutzerverhalten nach Erklärungen zur Entfernung von Inhalten auf Reddit

Wenn Beiträge auf einer Social-Media-Plattform entfernt werden, erhalten Nutzer möglicherweise oder auch nicht eine Erklärung. Welche Arten von Erklärungen werden gegeben? Spielen diese Erklärungen eine Rolle? Anhand einer Stichprobe von 32 Millionen Reddit-Beiträgen charakterisieren wir die bereitgestellten Entfernungs-erklärungen für Reddits-Nutzer und verknüpfen sie mit Maßen für nachfolgendes Nutzerverhalten – einschließlich zukünftiger Beitrags-Einsendungen und zukünftiger Beitrags-Entfernungen.

Unter Anwendung eines Topic-Modeling-Ansatzes zeigen wir, dass Entfernungs-Erklärungen oft Informationen liefern, die Nutzer über die sozialen Normen der Community aufklären und sie so (theoretisch) darauf vorbereiten, produktive Mitglieder zu werden. Wir erstellen Regressionsmodelle, die Belege dafür liefern, dass Entfernungs-Erklärungen eine Rolle bei zukünftigen Nutzeraktivitäten spielen. Am wichtigsten ist, dass wir zeigen, dass das Anbieten von Erklärungen für die Inhaltsmoderation die Wahrscheinlichkeit zukünftiger Beitrags-Entfernungen verringert. Darüber hinaus hatten von menschlichen Moderatoren bereitgestellte Erklärungen keinen signifikanten Vorteil gegenüber von Bots bereitgestellten Erklärungen bei der Reduzierung zukünftiger Beitrags-Entfernungen.

Wir schlagen Design-Lösungen vor, die eine effiziente Nutzung von Erklärungsmechanismen fördern, und reflektieren darüber, wie automatisierte Moderations-Tools zu diesem Bereich beitragen können. Insgesamt deuten unsere Ergebnisse darauf hin, dass Entfernungs-Erklärungen in der Moderationspraxis möglicherweise untergenutzt werden, und es könnte für Community-Manager lohnenswert sein, Zeit und Ressourcen in deren Bereitstellung zu investieren.

9 „Gefällt mir“

(Ich habe den Inhalt dieser Arbeit übrigens nicht gelesen, daher ist dies nur ein allgemeiner Kommentar zu Moderation und Transparenz der Moderation.)

Discourse ist bereits hervorragend und besser als die meisten Forum-Softwarelösungen – Benutzer werden über die meisten Moderationsaktionen benachrichtigt. Dennoch bin ich der Meinung, dass wir unsere Moderationsfunktionen definitiv erweitern könnten.

Als Beispiel: Wir bearbeiten regelmäßig unangemessene Sprache oder persönliche Angriffe in Beiträgen heraus, und einige Benutzer haben sich darüber beschwert – sie möchten, dass sie selbst aufgefordert werden, Änderungen vorzunehmen, und dass wir ihre Beiträge nicht anfassen.

Das ist natürlich nicht praktikabel – der ganze Sinn einer Moderation, die persönliche Angriffe entfernt, besteht darin, dass die Person, auf die der Angriff abzielt, ihn nicht sieht, was dazu führen könnte, dass sich die Situation verschlimmert. Außerdem haben Moderatoren nicht die Zeit, einen Benutzer per PM zu bitten, die Änderung vorzunehmen, den Vorfall zu notieren, sich daran zu erinnern, ihn zu überprüfen, den Benutzer erneut per PM zu kontaktieren oder andere Maßnahmen zu ergreifen, falls die erforderlichen Änderungen nicht vorgenommen wurden – das ist einfach zu viel Belastung für Moderatorenteams.

Eine Alternative wäre die Nutzung des Meldesystems, das einen Beitrag ausblendet – aber was passiert, wenn der Benutzer ihn einfach wieder einblendet oder keine ausreichende Änderung vornimmt? Wir müssten uns dennoch notieren, ihn zu überprüfen, wieder einzublenden usw. (Darüber hinaus hat das Ausblenden eines Beitrags auch andere Nachteile – es kann den Gesprächsfluss verlangsamen, Menschen dazu bringen, das Posten als zu mühsam zu empfinden usw. – was durch eine sehr einfache Moderationsbearbeitung normalerweise vermieden werden kann.)

Ich bin fest davon überzeugt, dass Discourse die Moderation auf ein neues Level heben könnte, genau wie in anderen Bereichen der Forum-Software :smiley: Das würde jedoch viel mehr Überlegung erfordern als nur ein einzelner Beitrag oder Thread – Moderation ist schwierig (niemand mag es, moderiert zu werden!).

Ich würde mich gerne an solchen Diskussionen beteiligen, und ich bin sicher, dass @HAWK bei einer solchen Bemühung von unschätzbarem Wert wäre.

6 „Gefällt mir“

Das kommt ein bisschen darauf an.

Bei schweren Vergehen wie rassistischen, sexistischen oder intoleranten Beschimpfungen glaube ich nicht, dass es einen Sinn hat, toxischen Abfall herumliegen zu lassen, der die Gemeinschaft weiterhin vergiftet, z.

Bei leichteren Verstößen kann man den Beitrag natürlich bearbeiten und anschließend eine Staff-Meldung im Post hinterlassen.

6 „Gefällt mir“

Ich stimme dem vollständig zu – ich habe eine Notiz dazu in unserem Teamraum:

Hallo zusammen,

Ein Mitglied hat sich kürzlich als _____ geoutet. Zwar ist es unwahrscheinlich, dass sie oder er von einem echten Mitglied der Gemeinschaft Missbrauch erleidet, doch es ist möglich, dass jemand, der ein persönliches Anliegen gegen [Thema des Forums] oder die Gemeinschaft hat, diese Person als einfaches Ziel oder als Mittel zur Schaffung von Konflikten zwischen Gemeinschaften auswählt.

  • Wenn ein Beitrag von einem „neuen
2 „Gefällt mir“

Fügen Sie selbst über das Schraubenschlüssel-Menü einen Staff-Hinweis zu einem Beitrag hinzu und sehen…

6 „Gefällt mir“

Wir wollen nicht vorschreiben, wie Menschen ihre Communities moderieren. Wir möchten lediglich die Werkzeuge bereitstellen, damit sie dies nach eigenem Ermessen tun können.

Daher bin ich neugierig: Was könnte anders gemacht werden? Man kann Beiträge verstecken, wieder sichtbar machen, löschen, die Community befähigen, Beiträge zu verstecken oder Mitteilungen des Personals hinzufügen.

4 „Gefällt mir“

Ich kann dich sehen, Jeff! :smiley:

Bei solchen Hinweisen würden wir sie fast sicher nicht für eine Art von Benutzermoderation verwenden, da wir es vorziehen, Benutzer nicht öffentlich zu beschämen (oder zu tadeln), wenn es irgendwie möglich ist – wir gehen nur dann öffentlich auf Benutzerprobleme ein, wenn uns keine andere Wahl bleibt (zum Beispiel, wenn ihr Verhalten oder ihre Handlungen zunehmend mehr und mehr Menschen im Forum beeinträchtigen).

Wenn diese Hinweise nur vom Ersteller des jeweiligen Beitrags gesehen werden könnten, könnten wir sie in einigen Fällen verwenden, solange wir deutlich machen, dass nur er/sie sie sehen kann.

Warum gehen wir diesen Weg? Weil Menschen es hassen, moderiert zu werden, und noch mehr, öffentlich „beschämt

2 „Gefällt mir“

Ich gebe zu, dass ich das war.

Ich habe viele Monate darüber nachgedacht (während ich die Art und Weise, wie wir SitePoint vor dem Umzug auf Discourse moderiert haben, erneut betrachtet habe), und ich bin der Meinung, dass wir für [dieses spezielle Forum] einen wirklich guten Ort erreicht haben, indem wir neue Prozesse eingeführt haben, die von den hier verfügbaren Tools angetrieben wurden. Wir haben im Wesentlichen alles verworfen und von vorne begonnen, was längst überfällig war.

Ich bin mir nicht sicher, welche Moderationsprobleme wir lösen müssen, die nicht bereits gelöst werden, daher bin ich natürlich an deinen Gedanken interessiert. Ich räume ein, dass es schwierig ist, außerhalb des Rahmens der Gemeinschaften zu denken, die du persönlich verwaltet hast, aber ich denke, es ist wichtig, mit echten Problemen zu beginnen, nicht mit Annahmen.

Gleiches gilt für mich. Der Januar klingt gut. :slight_smile:

7 „Gefällt mir“

Dieser Thread ist ein bisschen vom Thema abgekommen, aber der wichtigste Punkt, den wir aus diesem Artikel mitnehmen sollten, ist meiner Meinung nach, dass es sich lohnt, Nutzern, die Inhalte gegen die Richtlinien veröffentlichen, privat zu erklären, warum ihre eigenen Beiträge entfernt werden. Die Studie hat gezeigt: Je mehr Details bereitgestellt werden, desto besser.

Konkret heißt das: Wenn jemandens Inhalt entfernt wird, weil N Personen ihn gemeldet haben, lautet die derzeitige automatische Nachricht an den Nutzer meiner Ansicht nach: „Ihr Beitrag wurde entfernt, weil N Personen Sie gemeldet haben.

2 „Gefällt mir“

[quote=“dfabulich, Beitrag:9, Thema:133261”]
Ich glaube, die aktuelle automatisierte Nachricht an den Benutzer lautet: „Ihr Beitrag wurde entfernt, weil N Personen Sie gemeldet haben;

5 „Gefällt mir“

„Unangemessen“ könnte viel mehr Struktur vertragen, sage ich. „Was meinst du mit unangemessen?! Dieser Beitrag ist doch völlig in Ordnung!"

3 „Gefällt mir“