https://shagunjhaver.com/files/research/jhaver-2019-transparency.pdf
Spielt Transparenz bei der Moderation wirklich eine Rolle? Nutzerverhalten nach Erklärungen zur Entfernung von Inhalten auf Reddit
Wenn Beiträge auf einer Social-Media-Plattform entfernt werden, erhalten Nutzer möglicherweise oder auch nicht eine Erklärung. Welche Arten von Erklärungen werden gegeben? Spielen diese Erklärungen eine Rolle? Anhand einer Stichprobe von 32 Millionen Reddit-Beiträgen charakterisieren wir die bereitgestellten Entfernungs-erklärungen für Reddits-Nutzer und verknüpfen sie mit Maßen für nachfolgendes Nutzerverhalten – einschließlich zukünftiger Beitrags-Einsendungen und zukünftiger Beitrags-Entfernungen.
Unter Anwendung eines Topic-Modeling-Ansatzes zeigen wir, dass Entfernungs-Erklärungen oft Informationen liefern, die Nutzer über die sozialen Normen der Community aufklären und sie so (theoretisch) darauf vorbereiten, produktive Mitglieder zu werden. Wir erstellen Regressionsmodelle, die Belege dafür liefern, dass Entfernungs-Erklärungen eine Rolle bei zukünftigen Nutzeraktivitäten spielen. Am wichtigsten ist, dass wir zeigen, dass das Anbieten von Erklärungen für die Inhaltsmoderation die Wahrscheinlichkeit zukünftiger Beitrags-Entfernungen verringert. Darüber hinaus hatten von menschlichen Moderatoren bereitgestellte Erklärungen keinen signifikanten Vorteil gegenüber von Bots bereitgestellten Erklärungen bei der Reduzierung zukünftiger Beitrags-Entfernungen.
Wir schlagen Design-Lösungen vor, die eine effiziente Nutzung von Erklärungsmechanismen fördern, und reflektieren darüber, wie automatisierte Moderations-Tools zu diesem Bereich beitragen können. Insgesamt deuten unsere Ergebnisse darauf hin, dass Entfernungs-Erklärungen in der Moderationspraxis möglicherweise untergenutzt werden, und es könnte für Community-Manager lohnenswert sein, Zeit und Ressourcen in deren Bereitstellung zu investieren.

