Ich habe hier einige ermutigende Beiträge zum Thema Moderation gelesen, wie zum Beispiel von @codinghorror hier[1], und wollte mich auch dazu äußern.
Jüngste Enthüllungen von Twitter[2] haben die Debatte über den Einsatz von Moderationswerkzeugen, die Shadowbanning ähneln, neu belebt. Sind sie gut oder schlecht für den Diskurs? Mit diesem Beitrag hoffe ich, eine Debatte unter Mods und Nutzern über den Einsatz von Shadowbans anzustoßen.
Meine Hypothese ist, dass transparente Moderation eine vorbereitete Nutzerschaft fördert, in der sich Mods und Nutzer vertrauen, und Shadow-Moderation mehr Probleme schafft, als sie löst. Ich argumentiere daher, dass Dinge wie der Shadowban niemals* verwendet werden sollten, selbst für “kleine” Foren wie Discourse-Installationen.
Über mich
Ich bin der Autor von Reveddit, einer Website, die Redditors ihre heimlich entfernten Inhalte anzeigt. Reveddit wurde 2018 gestartet und seitdem habe ich mich auf Reddit[3], Hacker News[4] und in jüngerer Zeit auf Twitter[5] lautstark gegen den weit verbreiteten Einsatz von Tools, die Shadowbanning ähneln, ausgesprochen, die ich Shadow-Moderation nenne. Falls Zweifel bestehen, dass eine Form der Shadow-Moderation auf allen beliebtesten Plattformen stattfindet, siehe auch meinen Vortrag für Truth and Trust Online 2022[6], Folien 8-9 um 5:50 Uhr, oder meinen Auftritt bei Using the Whole Whale[7]. Falls Zweifel bestehen, dass die Praxis bei Nutzern aller Schichten unbeliebt ist, siehe die Reaktionen von Tausenden von Nutzern in der FAQ von Reveddit[8].
Vorwort
Als Referenz hier einige bestehende Definitionen von Shadowban-ähnlichem Verhalten:
- “die Inhalte einer Person absichtlich für alle außer der Person, die sie gepostet hat, unauffindbar machen, ohne dass der ursprüngliche Poster davon weiß”. - Twitter-Blog[9]
- “Ein hellbanned User ist für alle anderen User unsichtbar, aber entscheidend ist, dass er es selbst nicht ist. Aus seiner Sicht nimmt er normal an der Community teil, aber niemand antwortet ihm jemals. Er kann die Community nicht mehr stören, da er effektiv ein Geist ist.” - Coding Horror[10]
Und hier sind zwei Definitionen von mir:
- Transparente Moderation: Wenn Nutzer über Maßnahmen informiert werden, die gegen ihre Inhalte ergriffen werden.
- Shadow-Moderation: Alles, was Moderationsmaßnahmen vor dem Autor des betroffenen Inhalts verbirgt.
Beachten Sie, dass, wenn Plattformen über Transparenz sprechen, sie einfach meinen, dass sie ihre Richtlinien klar darlegen. Dies ist nicht dasselbe wie transparente Moderation.
Und um es klarzustellen: Ich unterstütze den Einsatz von Moderation, die transparent ist. Ich unterstütze nicht staatliche Interventionen in sozialen Medien, um Transparenz für Plattformen zu erzwingen, wie sie derzeit von PATA[11] in den USA oder der DSA[12] in Europa (Platform Accountability and Transparency Act und Digital Services Act) versucht wird. Daher akzeptiere ich auch das gesetzliche Recht von Plattformen, Shadow-Moderation zu betreiben.
Das Argument für transparente Moderation
Das Argument für transparente Moderation lässt sich am besten als Argument gegen Shadow-Moderation definieren.
Shadow-Moderation widerspricht dem Habeas Corpus, einem tausend Jahre alten Konzept, das besagt, dass der Angeklagte ein Recht hat, seinen Ankläger zu sehen. Die Werte des Habeas Corpus sind in der US-Verfassung als Zusatzartikel (der 6.) verankert, aber es ist auch eine grundlegende Würde, die wir von uns selbst erwarten und daher anderen gewähren sollten. Einfach ausgedrückt, geheime Strafen sind ungerecht.
Nun könnten Sie sagen: “Aber das sind private Plattformen!” Das sind sie in der Tat. Doch auch im Privaten streben wir danach, bestimmte Ideale aufrechtzuerhalten, wie Greg Lukianoff von FIRE hier erklärt hier.
John Stuart Mill vertrat dieselbe Ansicht in “On Liberty”, wo er schrieb: “Schutz also vor der Tyrannei des Magistrats reicht nicht aus: es bedarf auch Schutzes vor der Tyrannei der herrschenden Meinung und des herrschenden Gefühls.” [13]
Nun könnten Sie sagen: “Wir brauchen es, um Bot-Spam zu bekämpfen!” Das wird nur eine kurze Zeit funktionieren. Langfristig werden Bots herausfinden, wie sie die Sichtbarkeit ihrer Inhalte überprüfen können, während Nutzer dies meist nicht tun werden. Daher wird transparente Moderation auch bei Bots genauso gut funktionieren, und Shadow-Moderation schadet nur echten Individuen.
Vielleicht sagen Sie: “Ich benutze es nur in einem kleinen Forum.” Und da würde ich fragen: Ist es wirklich notwendig, auf Täuschung zurückzugreifen? Sich mit Shadow-Moderation auf einer kleinen Discourse-Installation anzufreunden, kann ein Sprungbrett sein, um ihre Nutzung auf größeren Plattformen zu unterstützen, und der Schaden dort ist mir klar. Jede Seite jedes Themas in jeder Geografie auf jeder Plattform ist betroffen. Über 50 % der Redditors haben im letzten Monat ihrer Nutzung Kommentare entfernt bekommen. Es unterbricht unzählige Gespräche, vielleicht aus Angst, was passiert, wenn Hass “losgelassen” wird. Aber Reveddit existiert seit vier Jahren, und das ist nicht passiert. Stattdessen habe ich gesündere Gemeinschaften beobachtet, und viele Beispiele dafür habe ich in meinem Vortrag aufgeführt.
Shadow-Moderation im großen Stil stärkt auch Ihren ideologischen Gegner. Gruppen, die Sie als unzivil betrachten, werden Shadow-Moderation wahrscheinlich unzivil nutzen. Jegliche Vorteile, die Sie haben, wenn Sie in der Lage sind, solche Werkzeuge einzusetzen, werden mit der Zeit schwinden. Und solange Sie Shadow-Moderation nutzen, werden Sie keine Argumente über ihre Nutzung anderswo gewinnen.
Meines Wissens wurde wenig Forschung betrieben, um die Auswirkungen von Shadow-Moderation zu untersuchen. Ich kenne eine Studie, die darauf hindeutet, dass die Arbeitsbelastung der Moderatoren sinkt, wenn die Transparenz steigt[14]. Doch wir wissen, dass offene Gesellschaften im Vergleich zu geschlossenen gedeihen.
Wenn Shadow-Moderation ungehindert bleibt, wachsen isolierte Stammesgruppen, die auf reale Gespräche, bei denen solche Schutzmaßnahmen nicht verfügbar sind, nicht vorbereitet sind. Dies kann zu Gewalt oder Selbstverletzung führen, da der durch Worte verursachte Schaden real ist, wenn wir die Grenzen dessen, was wir kontrollieren können, nicht akzeptieren. Wir können stattdessen wählen, Hass mit Gegenrede zu begegnen und Nutzergemeinschaften zu ermutigen, dasselbe zu tun.
Schließlich kann neue Gesetzgebung dies nicht für uns lösen. Jedes solche Gesetz würde unsere individuellen Freiheiten einschränken und die unbeabsichtigte Folge haben, entweder (a) die Einheit zu stärken, gegen die der Bill of Rights konzipiert wurde, oder (b) nicht zu funktionieren, da es keine Möglichkeit gibt, Transparenz zu erzwingen, ohne der Regierung Zugang zu allem Code zu gewähren. Sie sind also entweder wieder am Anfang oder schlimmer dran als zuvor. Die Unterstützung des Habeas Corpus und damit des zivilen Diskurses wird am besten durch kulturelle Unterstützung für tatsächlich transparente Moderation erreicht. Alles, was darunter liegt, wäre ein Pflaster auf einer eiternden Wunde.
Schlussfolgerung
Zusammenfassend lässt sich sagen, dass man nicht die Haltung einnehmen sollte: “Er tut es, also muss ich es auch tun, um zu gleichen Bedingungen zu konkurrieren.” Bedenken Sie stattdessen, dass Sie beide einen schlechten Stand haben könnten. Discourse-Installationen und andere Foren, die keine Shadow-Moderation verwenden, haben ein stärkeres Fundament. Ihre Nutzergemeinschaften sind vorbereitet, Mods und Nutzer vertrauen einander, und daher fühlen sich beide frei, offen und ehrlich zu sprechen. Und angesichts der weit verbreiteten Nutzung von Shadow-Moderation ist es jetzt wichtiger denn je, sich lautstark für transparente Moderation einzusetzen.
Anhang
Eine bisher nicht gemeldete Nutzung von Shadow-Moderation auf Twitter kann auftreten, wenn Tweets automatisch basierend auf Erwähnungen bestimmter Links ausgeblendet werden. Ich entdeckte dies, als ich einen Link zu meinem neuen Blog teilte, für den ich eine günstige Domain für 2 US-Dollar pro Jahr mit der TLD .win gekauft hatte. Nachdem ich ihn über Twitter geteilt hatte, bemerkte ich, dass meine Tweets für MICH, aber NICHT für andere sichtbar waren. Zum Beispiel zeigt dieser Tweet[15] nicht die Antwort von mir, selbst wenn man auf die Schaltfläche “Zusätzliche Antworten anzeigen” klickt. Um meine Antwort zu sehen, muss man direkt auf den Link zugreifen[16]. Effektiv ist diese Antwort für niemanden sichtbar, der mich nicht bereits kennt, und das System verbirgt diese Tatsache vor mir, während ich angemeldet bin.
* Der einzige Umstand, unter dem ich breite Zensur für nützlich halte, ist, wenn die Gesellschaft ihre Schäden vergessen hat. In diesem Fall kehrt sie unweigerlich zurück, wenn auch nur, um uns erneut an ihre schädlichen Auswirkungen zu erinnern.