Shadowbans sind schlecht für den Diskurs, und hier ist warum

Ich habe hier einige ermutigende Beiträge zum Thema Moderation gelesen, wie zum Beispiel von @codinghorror hier[1], und wollte mich auch dazu äußern.

Jüngste Enthüllungen von Twitter[2] haben die Debatte über den Einsatz von Moderationswerkzeugen, die Shadowbanning ähneln, neu belebt. Sind sie gut oder schlecht für den Diskurs? Mit diesem Beitrag hoffe ich, eine Debatte unter Mods und Nutzern über den Einsatz von Shadowbans anzustoßen.

Meine Hypothese ist, dass transparente Moderation eine vorbereitete Nutzerschaft fördert, in der sich Mods und Nutzer vertrauen, und Shadow-Moderation mehr Probleme schafft, als sie löst. Ich argumentiere daher, dass Dinge wie der Shadowban niemals* verwendet werden sollten, selbst für “kleine” Foren wie Discourse-Installationen.

Über mich

Ich bin der Autor von Reveddit, einer Website, die Redditors ihre heimlich entfernten Inhalte anzeigt. Reveddit wurde 2018 gestartet und seitdem habe ich mich auf Reddit[3], Hacker News[4] und in jüngerer Zeit auf Twitter[5] lautstark gegen den weit verbreiteten Einsatz von Tools, die Shadowbanning ähneln, ausgesprochen, die ich Shadow-Moderation nenne. Falls Zweifel bestehen, dass eine Form der Shadow-Moderation auf allen beliebtesten Plattformen stattfindet, siehe auch meinen Vortrag für Truth and Trust Online 2022[6], Folien 8-9 um 5:50 Uhr, oder meinen Auftritt bei Using the Whole Whale[7]. Falls Zweifel bestehen, dass die Praxis bei Nutzern aller Schichten unbeliebt ist, siehe die Reaktionen von Tausenden von Nutzern in der FAQ von Reveddit[8].

Vorwort

Als Referenz hier einige bestehende Definitionen von Shadowban-ähnlichem Verhalten:

  • “die Inhalte einer Person absichtlich für alle außer der Person, die sie gepostet hat, unauffindbar machen, ohne dass der ursprüngliche Poster davon weiß”. - Twitter-Blog[9]
  • “Ein hellbanned User ist für alle anderen User unsichtbar, aber entscheidend ist, dass er es selbst nicht ist. Aus seiner Sicht nimmt er normal an der Community teil, aber niemand antwortet ihm jemals. Er kann die Community nicht mehr stören, da er effektiv ein Geist ist.” - Coding Horror[10]

Und hier sind zwei Definitionen von mir:

  • Transparente Moderation: Wenn Nutzer über Maßnahmen informiert werden, die gegen ihre Inhalte ergriffen werden.
  • Shadow-Moderation: Alles, was Moderationsmaßnahmen vor dem Autor des betroffenen Inhalts verbirgt.

Beachten Sie, dass, wenn Plattformen über Transparenz sprechen, sie einfach meinen, dass sie ihre Richtlinien klar darlegen. Dies ist nicht dasselbe wie transparente Moderation.

Und um es klarzustellen: Ich unterstütze den Einsatz von Moderation, die transparent ist. Ich unterstütze nicht staatliche Interventionen in sozialen Medien, um Transparenz für Plattformen zu erzwingen, wie sie derzeit von PATA[11] in den USA oder der DSA[12] in Europa (Platform Accountability and Transparency Act und Digital Services Act) versucht wird. Daher akzeptiere ich auch das gesetzliche Recht von Plattformen, Shadow-Moderation zu betreiben.

Das Argument für transparente Moderation

Das Argument für transparente Moderation lässt sich am besten als Argument gegen Shadow-Moderation definieren.

Shadow-Moderation widerspricht dem Habeas Corpus, einem tausend Jahre alten Konzept, das besagt, dass der Angeklagte ein Recht hat, seinen Ankläger zu sehen. Die Werte des Habeas Corpus sind in der US-Verfassung als Zusatzartikel (der 6.) verankert, aber es ist auch eine grundlegende Würde, die wir von uns selbst erwarten und daher anderen gewähren sollten. Einfach ausgedrückt, geheime Strafen sind ungerecht.

Nun könnten Sie sagen: “Aber das sind private Plattformen!” Das sind sie in der Tat. Doch auch im Privaten streben wir danach, bestimmte Ideale aufrechtzuerhalten, wie Greg Lukianoff von FIRE hier erklärt hier.

John Stuart Mill vertrat dieselbe Ansicht in “On Liberty”, wo er schrieb: “Schutz also vor der Tyrannei des Magistrats reicht nicht aus: es bedarf auch Schutzes vor der Tyrannei der herrschenden Meinung und des herrschenden Gefühls.” [13]

Nun könnten Sie sagen: “Wir brauchen es, um Bot-Spam zu bekämpfen!” Das wird nur eine kurze Zeit funktionieren. Langfristig werden Bots herausfinden, wie sie die Sichtbarkeit ihrer Inhalte überprüfen können, während Nutzer dies meist nicht tun werden. Daher wird transparente Moderation auch bei Bots genauso gut funktionieren, und Shadow-Moderation schadet nur echten Individuen.

Vielleicht sagen Sie: “Ich benutze es nur in einem kleinen Forum.” Und da würde ich fragen: Ist es wirklich notwendig, auf Täuschung zurückzugreifen? Sich mit Shadow-Moderation auf einer kleinen Discourse-Installation anzufreunden, kann ein Sprungbrett sein, um ihre Nutzung auf größeren Plattformen zu unterstützen, und der Schaden dort ist mir klar. Jede Seite jedes Themas in jeder Geografie auf jeder Plattform ist betroffen. Über 50 % der Redditors haben im letzten Monat ihrer Nutzung Kommentare entfernt bekommen. Es unterbricht unzählige Gespräche, vielleicht aus Angst, was passiert, wenn Hass “losgelassen” wird. Aber Reveddit existiert seit vier Jahren, und das ist nicht passiert. Stattdessen habe ich gesündere Gemeinschaften beobachtet, und viele Beispiele dafür habe ich in meinem Vortrag aufgeführt.

Shadow-Moderation im großen Stil stärkt auch Ihren ideologischen Gegner. Gruppen, die Sie als unzivil betrachten, werden Shadow-Moderation wahrscheinlich unzivil nutzen. Jegliche Vorteile, die Sie haben, wenn Sie in der Lage sind, solche Werkzeuge einzusetzen, werden mit der Zeit schwinden. Und solange Sie Shadow-Moderation nutzen, werden Sie keine Argumente über ihre Nutzung anderswo gewinnen.

Meines Wissens wurde wenig Forschung betrieben, um die Auswirkungen von Shadow-Moderation zu untersuchen. Ich kenne eine Studie, die darauf hindeutet, dass die Arbeitsbelastung der Moderatoren sinkt, wenn die Transparenz steigt[14]. Doch wir wissen, dass offene Gesellschaften im Vergleich zu geschlossenen gedeihen.

Wenn Shadow-Moderation ungehindert bleibt, wachsen isolierte Stammesgruppen, die auf reale Gespräche, bei denen solche Schutzmaßnahmen nicht verfügbar sind, nicht vorbereitet sind. Dies kann zu Gewalt oder Selbstverletzung führen, da der durch Worte verursachte Schaden real ist, wenn wir die Grenzen dessen, was wir kontrollieren können, nicht akzeptieren. Wir können stattdessen wählen, Hass mit Gegenrede zu begegnen und Nutzergemeinschaften zu ermutigen, dasselbe zu tun.

Schließlich kann neue Gesetzgebung dies nicht für uns lösen. Jedes solche Gesetz würde unsere individuellen Freiheiten einschränken und die unbeabsichtigte Folge haben, entweder (a) die Einheit zu stärken, gegen die der Bill of Rights konzipiert wurde, oder (b) nicht zu funktionieren, da es keine Möglichkeit gibt, Transparenz zu erzwingen, ohne der Regierung Zugang zu allem Code zu gewähren. Sie sind also entweder wieder am Anfang oder schlimmer dran als zuvor. Die Unterstützung des Habeas Corpus und damit des zivilen Diskurses wird am besten durch kulturelle Unterstützung für tatsächlich transparente Moderation erreicht. Alles, was darunter liegt, wäre ein Pflaster auf einer eiternden Wunde.

Schlussfolgerung

Zusammenfassend lässt sich sagen, dass man nicht die Haltung einnehmen sollte: “Er tut es, also muss ich es auch tun, um zu gleichen Bedingungen zu konkurrieren.” Bedenken Sie stattdessen, dass Sie beide einen schlechten Stand haben könnten. Discourse-Installationen und andere Foren, die keine Shadow-Moderation verwenden, haben ein stärkeres Fundament. Ihre Nutzergemeinschaften sind vorbereitet, Mods und Nutzer vertrauen einander, und daher fühlen sich beide frei, offen und ehrlich zu sprechen. Und angesichts der weit verbreiteten Nutzung von Shadow-Moderation ist es jetzt wichtiger denn je, sich lautstark für transparente Moderation einzusetzen.

Anhang

Eine bisher nicht gemeldete Nutzung von Shadow-Moderation auf Twitter kann auftreten, wenn Tweets automatisch basierend auf Erwähnungen bestimmter Links ausgeblendet werden. Ich entdeckte dies, als ich einen Link zu meinem neuen Blog teilte, für den ich eine günstige Domain für 2 US-Dollar pro Jahr mit der TLD .win gekauft hatte. Nachdem ich ihn über Twitter geteilt hatte, bemerkte ich, dass meine Tweets für MICH, aber NICHT für andere sichtbar waren. Zum Beispiel zeigt dieser Tweet[15] nicht die Antwort von mir, selbst wenn man auf die Schaltfläche “Zusätzliche Antworten anzeigen” klickt. Um meine Antwort zu sehen, muss man direkt auf den Link zugreifen[16]. Effektiv ist diese Antwort für niemanden sichtbar, der mich nicht bereits kennt, und das System verbirgt diese Tatsache vor mir, während ich angemeldet bin.

* Der einzige Umstand, unter dem ich breite Zensur für nützlich halte, ist, wenn die Gesellschaft ihre Schäden vergessen hat. In diesem Fall kehrt sie unweigerlich zurück, wenn auch nur, um uns erneut an ihre schädlichen Auswirkungen zu erinnern.

20 „Gefällt mir“

Sehr interessant, danke.

Man könnte leicht argumentieren, dass es noch eine weitere Ebene gibt, Suchmaschinen wie Google!

6 „Gefällt mir“

Sehr interessante Lektüre. Ich frage mich jedoch, ob es in Discourse überhaupt einen Nutzen für Shadowbans gibt.

Ja, es gibt ein Shadowban-Plugin, aber es wird kaum genutzt. Es hat einen (1) Github-Stern und die Statistiken, die wir bei Communiteq haben, zeigen, dass die Anzahl der Discourse-Foren, die dies aktiv nutzen, weniger als 0,5 % beträgt.

Warum ist die Akzeptanz von Shadowbanning auf der Discourse-Plattform also so gering? Nicht, weil Shadowbans schlecht sind (was sie sind), sondern aus einem anderen Grund. Aus technischer Sicht sind Shadowbans in Discourse sehr leicht zu erkennen. Besuchen Sie einfach das Forum, ohne sich anzumelden oder einen anderen Account zu verwenden, und erkennen Sie die Unterschiede. Und das ist möglich, weil Discourse keine Social-Media-Plattform ist, die einen Algorithmus verwendet, der entscheidet, was Sie sehen und in welcher Reihenfolge es angezeigt wird. In Discourse hängt der Inhalt, der Ihnen gezeigt wird, nicht davon ab, was Sie zuvor getan / gesehen / gelesen oder geschrieben haben. Und wenn es keinen Algorithmus gibt, gibt es keinen Ort, an dem bestimmte Inhalte heruntergespielt werden können. Es gibt nur die Möglichkeit, sie vollständig zu verbergen, anstatt sie anzuzeigen.

Ich unterstütze auch nicht alle Formen der transparenten Moderation, da transparente Moderation immer noch subjektiv sein kann.

Neben meiner Arbeit im Discourse-Ökosystem bin ich auch Gründer eines Unternehmens, das Online-Desinformation und Hassreden bekämpft. Bei Vorträgen werde ich oft nach Beispielen für ausländische Einmischung in die demokratischen Prozesse in diesem Land (den Niederlanden) gefragt, wobei die Fragesteller immer erwarten, dass ich eine Geschichte über russische Trolle erzähle. Aber tatsächlich sind die wichtigsten Beispiele für Einmischung in die demokratischen Prozesse durch ausländische Akteure, die wir in diesem Land gesehen haben, Social-Media-Plattformen wie Twitter oder YouTube, die niederländische Politiker ohne jegliche Überprüfung durch ein Gericht oder eine andere unabhängige Stelle sperren oder shadowbannen.

Und das ist schlecht.

13 „Gefällt mir“

Hallo Richard,

vielen Dank für deine Meinung. Ich bin nicht ganz davon überzeugt, dass die Nutzung von Discourse gering ist. Wir haben keine Möglichkeit, den angepassten Code von Installationen usw. zu überprüfen, ohne zuerst Tools zu entwickeln und bereitzustellen, mit denen Benutzer das Verhalten dieser Systeme selbst untersuchen können. Selbst wenn die Nutzung gering wäre, ist es dennoch wichtig, eine öffentliche Haltung einzunehmen, da die Nutzung an anderen Orten klein begann und nun weit verbreitet ist. Ich muss deinem Kommentar hier widersprechen,

Warum ist die Akzeptanz von Shadowbanning auf der Discourse-Plattform so gering? Nicht, weil Shadowbans schlecht sind (was sie sind), sondern aus einem anderen Grund. Aus technischer Sicht sind Shadowbans auf Discourse sehr leicht zu erkennen. Besuchen Sie einfach das Forum, ohne sich anzumelden oder einen anderen Account zu verwenden, und erkennen Sie die Unterschiede.

Obwohl das technisch möglich ist, werden die meisten Benutzer nicht darauf kommen. Schließlich funktionieren die Kommentar-Entfernungen von Reddit auf die gleiche Weise, was Sie sehen können, wenn Sie in r/CantSayAnything kommentieren. 99 % der Redditors haben keine Ahnung, wie das funktioniert. Ich hatte sieben Jahre lang einen Account auf Reddit, bevor ich die weit verbreitete Nutzung von Shadow-Moderation entdeckte. Ich hatte auch wahrscheinlich drei Jahre lang vorher als Leser besucht. Und selbst jetzt, wo Reveddit seit vier Jahren existiert, schätze ich, dass weniger als 1 % der Redditors verstehen, wie Kommentar-Entfernungen funktionieren. Schließlich verstand ich selbst nach dem Aufbau von Reveddit erst vier Jahre später, im letzten Sommer, wirklich, dass Shadow-Moderations-Tools existierten und auf allen großen Plattformen weit verbreitet waren.

Ich stimme Ihrem Punkt zu, dass die Manipulation von algorithmischen Feeds schwerer zu erkennen ist. Und wie Sie sagen, nicht-algorithmisch gefilterte Inhalte sind überprüfbar. Datumsgestellte Kommentarbereiche passen jedoch immer in diese Kategorie, und ich glaube, jede große Social-Media-Seite hat sie. Diese sind daher überprüfbar, vorausgesetzt, jemand baut Tools dafür, denn wieder denken die Benutzer nicht daran, dies selbst zu überprüfen. Selbst wenn Sie den Status eines Kommentars einmal überprüfen, ist es möglich, dass ein Moderator Ihren Kommentar eine Stunde später leise entfernt und damit Ihre Überprüfung ungültig macht! Deshalb habe ich Reveddit Real-Time1 gebaut, eine Erweiterung, die das System auf Shadow-Entfernungen abfragt und Sie benachrichtigt, wenn dies geschieht.

Solche Tools sollten für alle Plattformen entwickelt werden, bis genügend Vertrauen zwischen Benutzern und Social-Media-Seiten besteht, dass Shadow-Moderation der Vergangenheit angehört. Shadow-Moderation ist so weit verbreitet, dass ich denke, jeder sollte davon ausgehen, dass sie von jedem System verwendet wird, das er zur Kommunikation nutzt, es sei denn, das System lehnt die Praxis ausdrücklich ab. Und selbst dann müssen Sie auf ihre Wortwahl achten, wie z. B. die Entscheidung von Twitter, öffentlich das Wort “rank”1 anstelle von internen Beschreibungen wie “de-amplify”1 zu verwenden. YouTube hingegen räumt offener ein, dass es Inhalte “reduzieren”1 wird.

Transparente Moderation kann immer noch subjektiv sein.

Können Sie das näher erläutern?

Neben meiner Arbeit im Discourse-Ökosystem bin ich auch Gründer eines Unternehmens, das Online-Desinformation und Hassreden bekämpft.

Interessant, können Sie sagen, welches? Und sind die von Ihnen erwähnten Vorträge online verfügbar? Ich stimme zu, dass die Sperrungen von YouTube ebenfalls besorgniserregend sind. Ich vermute, ihr Burggraben wurde, wie der anderer, mit Shadow-Moderations-Tools gebaut, die “reduzieren” oder “shadow remove”. Wir sollten uns daher zuerst auf das konzentrieren.

Ich denke, die wirkliche Zensur unserer Zeit ist Shadow-Moderation. Transparente Moderation kann Zensur sein, wenn sie nicht “ansichtneutral” ist, aber sie ist eher mit Bearbeitung vergleichbar. Ein letztes Argument gegen wirkliche Zensur kommt von Bob Corn-Revere, einem führenden Anwalt für das First Amendment: “Der Zensor hat niemals die moralische Oberhand.”1

3 „Gefällt mir“

Ich stimme zu, dass die Moderation transparent sein sollte, aber ich kann verstehen, wie das Schattenverbannen verlockend sein könnte, um mit Trollen umzugehen, die nicht verschwinden. Gibt es alternative Möglichkeiten, mit jemandem umzugehen, der nach einer Sperrung durch das Personal einer Website immer wieder neue Konten erstellt?

8 „Gefällt mir“

Als einer der Gründer des zweitgrößten Anbieters von Managed Hosting für Discourse habe ich diese Möglichkeit – zumindest für die von uns gehosteten Instanzen –, sodass ich mich in der glücklichen Lage befinde, einige statistisch signifikante Berechnungen durchführen zu können. Und wenn es eine weit verbreitete Shadowban-Funktionalität gäbe, die – auf magische Weise – vollständig von „unseren“ Instanzen getrennt wäre, hätte ich in den letzten 9 Jahren nicht einmal davon gehört. Das ist nun ja, höchst unwahrscheinlich.

Ihr Beitrag scheint die Unterscheidung zwischen Shadowbanning (bei dem alle Beiträge bestimmter Benutzer unterdrückt werden) und Shadow-Moderation (bezüglich einzelner Beiträge) zu verwischen, aber ich denke, diese Unterscheidung ist wichtig.

Abgesehen von den technischen Unterschieden, bei denen Shadowbanning viel einfacher zu erkennen ist (wenn man einen einzigen Beitrag eines bestimmten Benutzers finden kann, ist dieser nicht shadowbanned), ist Shadowbanning viel böser, da die Meinungsfreiheit von jemandem aufgrund dessen, was er zuvor gesagt hat, eingeschränkt wird, während Shadow-Moderation seine aktuelle Rede unterdrückt.

Ich denke, das Hauptproblem bei der Shadow-Moderation ist, dass sie subjektiv ist, nicht, dass sie stillschweigend erfolgt. Wenn Benutzer über die Entfernung von Inhalten benachrichtigt werden, kann dies auch zu unerwünschtem Verhalten führen (z. B. erneutes Posten oder Trollen). Ein Beispiel ist, was auf LinkedIn während Covid-19 geschah. Sie benachrichtigen meist über die Löschung von Inhalten, sodass die Leute begannen, Fotos von ihren gelöschten Beiträgen zu machen und sie erneut zu posten. Dies zog nicht nur mehr Aufmerksamkeit auf ihre Beiträge (die unbemerkt blieben, da LinkedIn offenbar keine Bild-zu-Text-Erkennung für diese Fotos durchführen kann), sondern schürte auch die „Great Reset“-Verschwörungstheorien, dass eine größere Macht ihre Meinungsfreiheit einschränkte.

Nun, das hier:

5 „Gefällt mir“

Hallo Simon, Kontext ist sehr wichtig. Haben Sie konkrete Beispiele? Im Allgemeinen würde ich vorschlagen, sich vorzustellen, dass diese Last nicht vollständig auf den Schultern der Content-Manager lasten muss. Engagieren Sie Ihre Community und erklären Sie das Dilemma. Vielleicht kann es ohne ein Verbot gelöst werden. Wenn Sie das für naiv halten, dann werden mehr Kontext benötigt, um darüber zu diskutieren.

2 „Gefällt mir“

Richard, vielen Dank für diese Klarstellungen. Die von Ihnen bereitgestellte Information ist gut zu wissen. Ich denke, wir können uns darauf einigen, dass Shadow-Moderation bei Discourse heute kein großes Problem zu sein scheint.

Ich persönlich werde hier dennoch keine „Entwarnung“ geben, aus bereits genannten Gründen und weil selbst die Nutzung durch ein einziges Forum große Auswirkungen haben kann. Bestimmte Gruppen auf Reddit nutzen beispielsweise stärker als andere Shadow-Moderation. Benutzer können sich darauf verlassen, dass das System als Ganzes vertrauenswürdig ist, da bestimmte Gruppen sie über Entfernungen informieren. Sie denken also, dass dies ständig geschieht. Und was oft als Nächstes passiert, ist, dass die „manipulativeren“ Gruppen mehr Vertrauen genießen, einfach weil sie den Benutzern nicht mitteilen, wenn sie Inhalte entfernen. Im Laufe der Zeit hat dies dazu geführt, dass mehr Gruppen standardmäßig Inhalte entfernen, ohne Benachrichtigung. Reveddit hilft zwar, dem etwas entgegenzuwirken, aber es ist immer noch nur ein Pflaster ohne breitere Aufklärung.

Es fällt mir nicht schwer, mir eine Discourse-Installation vorzustellen, die keine transparente Moderation ausübt und somit Benutzer auf die gleiche Weise ausnutzt. Ich stimme zu, dass die weit verbreitete Nutzung von Shadow-Moderation anderswo nicht bedeutet, dass sie bei Discourse weit verbreitet ist. Ich betrachte das veröffentlichte Plugin und die Anfragen nach Fehlerbehebungen als Beweis dafür, dass Shadow-Moderation zumindest an die Tür von Discourse klopft.

Abgesehen von den technischen Unterschieden, bei denen Shadowbanning viel einfacher zu erkennen ist (wenn man einen einzigen Beitrag eines bestimmten Benutzers finden kann, ist er nicht shadowbanned),

Aus Benutzersicht funktioniert dieser Test nicht. Systeme, die Inhalte selektiv per Shadow-Moderation behandeln, werben nicht damit. Außerdem bedeutet „einfacher“ nicht „leicht“. Dieser Benutzer1 wurde drei Jahre lang von Reddit seitenweit shadowbanned, bevor er es entdeckte, und viele andere Benutzer werden regelmäßig aus Subreddits shadowbanned, wie zum Beispiel in r/LibertarianUncensored1 dokumentiert.

Reddit hat jetzt auch etwas namens Crowd Control, das es Subreddit-Moderatoren ermöglicht, einen Schalter umzulegen, um alle Kommentare von Nicht-Stammabonnenten ohne Benachrichtigung automatisch zu entfernen. In einem einzigen r/conservative-Thread1 wurden 4.000 Kommentare, über 50 %, automatisch per Shadow-Moderation entfernt. Keiner dieser Benutzer hat eine Ahnung, dass ihre Teilnahme an dieser Gruppe oft stummgeschaltet wird.

Shadowbanning ist viel böser, da die Meinungsfreiheit von jemandem aufgrund dessen, was er zuvor gesagt hat, eingeschränkt wird, während Shadow-Moderation seine aktuelle Rede unterdrückt.

Shadowbanning [von den Inhalten eines ganzen Kontos] ist eine Form der Shadow-Moderation. Der Begriff „selektive Unsichtbarkeit“1 beschreibt vielleicht besser, was Sie mit „Shadow-Moderation“ meinten. Beides kann meiner Meinung nach gleichermaßen schädlich sein, aufgrund des oben beschriebenen Lulling-Effekts und weil selektive Unsichtbarkeit immer noch ohne menschliche Überprüfung der moderierten Inhalte angewendet werden kann. Auf Reddit stellt dies die meisten Kommentar-Entfernungen dar; Mods gehen diese nicht durch und genehmigen sie, und ich stelle mir vor, dass dies auf anderen Plattformen genauso ist.

Schließlich stimme ich zu, dass man darüber streiten kann, was Zensur ist und was es bedeutet, vollständig transparent über Moderation zu sein. Ich denke, der wichtigere Punkt ist, dass wir von transparenter Moderation in sozialen Medien so weit entfernt sind und von der öffentlichen Wahrnehmung der Allgegenwart von Shadow-Moderation so weit entfernt sind, dass jeder Schritt in diese Richtung bedeutsam ist. Mit anderen Worten, lassen Sie nicht zu, dass Perfektion das Gute behindert.

5 „Gefällt mir“

Hallo Rob, ich stimme @simon zu, dass es bestimmte Fälle gibt, in denen Shadowbanning rein funktional nützlich sein könnte. Ich persönlich möchte mich nicht mit den tieferen moralischen und philosophischen Fragen dieses Themas befassen, aber ich habe mehrere Fälle gesehen, die eindeutig sind. Es handelt sich normalerweise um eine bestimmte Person, die das gesamte Forum als offensichtlichen Troll kennt und die Person wurde mehrfach gesperrt und kommt immer wieder unter verschiedenen Benutzernamen zurück, und diese Art von Störenfried nutzt unweigerlich das TOR-Netzwerk. Dasselbe gilt für verärgerte Benutzer, die wütend profane Tiraden und schreckliche Beleidigungen und sogar beunruhigende obszöne Bilder posten, oder sogar spezifische gezielte physische Drohungen. Die Fälle, auf die ich mich beziehe, sind also klare und unmissverständliche Beispiele für Benutzer, die absolut nicht in einem Forum (oder in einigen Fällen sogar frei auf der Straße) sein sollten, und deren Online-Verhalten gegen die Normen praktisch aller anständigen Menschen auf der Welt verstößt. Shadowbans können zumindest etwas Zeit gewinnen, bevor diese Art von Benutzer es merkt und einen weiteren Account erstellt.

6 „Gefällt mir“

Das ist eine knifflige Frage. Ich bin nicht in der Lage, Beispiele zu nennen, aber die Unterüberschrift zum Thema „Discourse Shadowban“ fasst es ziemlich gut zusammen: „Das letzte Mittel, um mit Trollen fertig zu werden, die einfach nicht verschwinden wollen.“ Auch das hier:

Mein Ansatz für die Situation wäre, dem Benutzerkonto eine Notiz mit Discourse User Notes hinzuzufügen, um anderen Moderatoren auf der Website eine Warnung bezüglich des Benutzers zu geben und sicherzustellen, dass sie bei neuen Verstößen schnell gesperrt werden. Ich bin noch nie auf eine Situation gestoßen, in der der Benutzer nicht schließlich verschwunden ist.

Ich denke, wir sollten unseren Teil dazu beitragen, die Welt zu einem besseren Ort zu machen. Die Art des Problems, das ich hier beschreibe, betrifft Benutzer, die (aus meiner Sicht) mit psychischen Problemen zu kämpfen scheinen. Ich würde gerne wissen, wie ich ihnen helfen kann, bessere Bürger sowohl im Internet als auch in der realen Welt zu sein.

6 „Gefällt mir“

Man könnte leicht argumentieren, dass es noch eine weitere Ebene gibt, Suchmaschinen wie Google!

Stimmt. Ich mache mir mehr Sorgen über Schattenentfernungen in chronologisch geordneten Kommentarbereichen. Dort ist der Schaden offensichtlich und es ist relativ einfach, Werkzeuge zu entwickeln, die zeigen, wo er passiert. Der Trick, so denke ich, ist, Unterstützung für diese Bewegung zu gewinnen. Sie existiert noch nicht. Die Leute wissen nicht einmal, dass sie stattfindet. Und in dem Maße, in dem Leute immer noch sagen: „Wir brauchen solche Werkzeuge für dieses schlimmste Szenario“, denke ich, ist das reduktiv, weil die Schäden dieser neuen Form der Schattenzensur beiseite geschoben werden oder nie in Betracht gezogen werden. Dennoch könnte es eine Diskussion sein, die stattfinden muss, wenn wir Unterstützung für transparent moderierte Gespräche gewinnen wollen.

Sie haben absolut Recht zu sagen, dass undurchsichtige Algorithmen auch Schattenmoderation betreiben können. Ich habe Gerüchte über Forschungen gehört, die argumentieren, dass Google manipuliert, was in seinen Suchvorschlägen erscheint, während man tippt, aber ich habe keine Quelle dafür, daher bleibt es für mich ein Gerücht. Man könnte auch absichtlich Trainingsdaten voreingenommen gestalten oder bestehende Voreingenommenheit in den Daten nicht bemerken. Oder man könnte argumentieren, dass das, was Voreingenommenheit darstellt, subjektiv ist, da die digitale Welt niemals die reale Welt genau widerspiegeln wird.

Das sind alles komplexere Diskussionen, von denen viele nur hinter verschlossenen Türen stattfinden werden. Ich denke, sie würden eher stattfinden, wenn es ein breiteres Bewusstsein für die Verbreitung von Schattenmoderation in Kommentarbereichen gäbe und somit breitere Unterstützung dafür, nicht zu tun; das heißt, Unterstützung für transparente Moderation. Ich bin übrigens nicht an diese Begriffe gebunden, also wenn Sie bessere Ideen haben, rufen Sie sie bitte laut aus.

1 „Gefällt mir“

Hallo Rahim,

Schön, dass du dich an der Diskussion beteiligst.

Ich persönlich möchte mich nicht mit den tieferen moralischen und philosophischen Fragen dieses Themas befassen, aber ich habe mehrere eindeutige Fälle gesehen.

Können Sie einige dieser Beispiele anführen? Ohne sie ist dies in der Tat eher eine theoretische als eine empirische Diskussion. Beachten Sie, dass einige Inhalte illegal sind1. Solche Inhalte sollten den Behörden gemeldet werden. Ich gehe davon aus, dass Sie von verfassungsrechtlich geschützter Rede sprechen, die ansonsten Benutzern schadet.

Ich habe mehrere Fälle verlinkt, die zeigen, wie die fortgesetzte Nutzung von Shadow-Moderation schädlich ist, und habe noch kein Beispiel für einen Troll gesehen, der (a) ständig grenzwertig verfassungsrechtlich geschützte Rede postet und (b) nicht verschwindet, nachdem er darauf angesprochen wurde. Vielleicht liegt das daran, dass es selten ist.

Das hypothetische Worst-Case-Szenario wird immer zur Rechtfertigung von Machtkonsolidierung genutzt. Auf Reddit gibt es in einigen Gruppen wie r/news einen Moderator für eine Million Abonnenten, die Konten haben. Die Zahl der Leser dehnt dieses Verhältnis wahrscheinlich um mindestens das Zehnfache. Das ist bemerkenswert, wenn man bedenkt, dass die Moderatoren dort anonyme, ungeschulte Freiwillige sind. Sie entscheiden, was Hunderte von Millionen von Menschen in den Kommentarbereichen sehen werden, ohne die Aufsicht von auch nur den Autoren dieser Kommentare.

Es handelt sich normalerweise um eine bestimmte Person, die das gesamte Forum als offensichtlichen Troll kennt, und die Person wurde mehrfach gesperrt und kommt immer wieder unter verschiedenen Benutzernamen zurück, und diese Art von Störenfried nutzt unweigerlich das TOR-Netzwerk. Dasselbe gilt für verärgerte Benutzer, die wütend profane Tiraden und schreckliche Beleidigungen und sogar verstörende obszöne Bilder posten oder sogar spezifische gezielte Drohungen aussprechen.

Rechtfertigt dies die Einführung einer Form der Zensur, von der die Benutzerbasis nicht wissen soll?

Hier ist ein Fall, in dem ich mich mit jemandem auseinandergesetzt habe, der auf einen Kampf aus war. Aus der Kommentarhistorie von BillHicksScream1 können Sie ersehen, dass sie ständig provokative Dinge sagen. Und doch hatten sie nichts zu sagen als Antwort auf meinen letzten Kommentar.

In anderen Fällen kann es am besten sein, ungehorsamen Benutzern das letzte Wort zu lassen. Sie müssen nur angesichts von Dogmen vernünftig erscheinen, wie Jonathan Rauch sagt1. Es ist nicht notwendig, Trolle/Extremisten davon zu überzeugen, dass sie falsch liegen. Sie werden sich selbst ermüden.

Shadowbans können zumindest etwas Zeit gewinnen, bis diese Art von Benutzer es merkt und einen weiteren Account erstellt.

Und dann? Was passiert, wenn Benutzer unweigerlich zusammenzählen, dass ihre Diskussionen manipuliert werden, weil der Machtraub zu groß und zu verlockend für jeden Einzelnen war, um ihm zu widerstehen? Standhafte, die Shadow-Moderation nicht in die Software integriert haben, wie Jeff Atwood, der Gründer von Discourse, sind die Ausnahme, nicht die Regel.

Es findet gerade ein kultureller Wandel1 in der Tech-Branche statt. Ganze Teams werden entlassen und Benutzer entdecken Shadow-Moderation. Ehrliche Technik ist der Weg nach vorn. Sehen Sie, wie die Leute reagieren, wenn sie entdecken, was vor sich geht1,

…was ist der angebliche Grund, warum Sie denken, dass ein entfernter Beitrag immer noch live und sichtbar ist?

…Also löschen die Mods Kommentare, aber sie sind für den Schreiber immer noch sichtbar. Wie finster.

…was erstaunlich ist, ist, dass man keine Benachrichtigung erhält und der Kommentar für einen immer noch sichtbar ist. Das bedeutet, dass Mods jede gewünschte Erzählung festlegen können, ohne jemandem Rechenschaft ablegen zu müssen.

…Wow. Können sie deinen Kommentar löschen und er wird auf deiner Seite immer noch als nicht gelöscht angezeigt?

…Wow. Ich bin seit 12 Jahren hier und dachte immer, es sei ein cooler Ort, an dem Leute offen Ideen austauschen können. Es stellt sich heraus, dass es zensierter ist als China. Wird in 3, 2, 1… entfernt.

Also, es schlägt fehl. In den Köpfen der Benutzer sind Sie jetzt der Zensor, der sagt: „Benutzer sollten das nicht sehen, nur ich [der Moderator] habe die Verfassung, es zu ertragen.“

Zensoren bezeichnen sich übrigens nie als Zensoren, wie ich hier1 darauf hingewiesen habe. Das liegt daran, dass das Wort „Zensor“ seit den Tagen von Anthony Comstock als etwas Schlechtes gilt. Daher wird es oft durch Begriffe wie selektive Unsichtbarkeit1, Sichtbarkeitsfilterung1, Ranking1, nur für sich selbst sichtbar1, Reduzierung1, Deboosting1 oder Verschleierung einer Zensur1 umformuliert. Das sind alles Phrasen, die Plattformen und Befürworter von Shadow-Moderation verwenden, um das böse Wort „Zensur“ zu vermeiden. Die Liste ist endlos, weil es darum geht, zu verschleiern, nicht zu enthüllen, was sie tun.

Sie sagen, Sie wollen keine philosophische Diskussion, aber wenn Sie mit jemandem umgehen, mit dem Sie nicht einer Meinung sind und individuelle Freiheiten respektieren, kann es hilfreich sein, wie ein Wissenschaftler und nicht wie ein Anwalt oder Soldat zu denken und neugierig darauf zu sein, woher diese Person kommt. Greg Lukianoff nennt dies „Das Projekt des menschlichen Wissens“ [[Video-Clip](https://youtu.be/yJnxQ7YNWTM?t=4867) [[Artikel](https://www.thefire.org/news/blogs/eternally-radical-idea/13-important-points-campus-k-12-critical-race-theory-debate)].

Kurz gesagt, die durch Zensur verursachten Schäden sollten berücksichtigt werden. Eine kurzsichtige Betrachtung der durch Trolle verursachten Schäden ohne Berücksichtigung der Schäden der heutigen wirklichen Zensur bringt Gespräche über Inhaltsmoderation nicht voran, da Sie nur einen Teil des Bildes betrachten. Shadow-Moderation bleibt praktisch zu 100 % der Öffentlichkeit verborgen.

Angesichts der Tatsache, dass so viele Benutzer daran gehindert werden, bei der Moderation von Diskussionen zu helfen, wenn Shadow-Moderation stattfindet, ist es vernünftig, sie um Hilfe zu bitten. In dem Maße, in dem kein Versuch unternommen wird, die Community durch transparente Moderation und Gegenrede einzubeziehen, würde ich das als Online-Autoritarismus bezeichnen – eine gottgleiche Mentalität, bei der Moderatoren vorgeben, es besser zu wissen als alle anderen. Und letztendlich wird dies den Administratoren mehr Ärger bereiten, als es wert ist, wie Sie es meiner Meinung nach bei den periodischen Turbulenzen erleben, mit denen Twitter, Facebook und Reddit konfrontiert sind. Benutzer in diesen Räumen sind lange genug dort, um die Manipulation zu entdecken, und sie wollen etwas Besseres.

2 „Gefällt mir“

Mein Ansatz für die Situation wäre, eine Notiz zum Konto des Nutzers mit Discourse User Notes hinzuzufügen, um anderen Moderatoren auf der Website eine Warnung bezüglich des Nutzers zu geben und sicherzustellen, dass sie bei neuen Verstößen schnell gesperrt werden. Ich bin noch nie auf eine Situation gestoßen, in der der Nutzer schließlich verschwunden ist.

Das war auch meine Erfahrung: Transparente Moderation hilft den Menschen, die Regeln zu verstehen und zu entscheiden, ob sie diese befolgen oder woanders diskutieren möchten. Die Studie, die ich bezüglich der Arbeitsbelastung von Mods zitiert habe, bestätigt dies ebenfalls.

Ich denke, wir sollten unseren Teil dazu beitragen, die Welt zu einem besseren Ort zu machen. Die Art von Problem, die ich hier beschreibe, betrifft Nutzer, die (aus meiner Sicht) mit psychischen Problemen zu kämpfen scheinen. Ich würde gerne wissen, wie ich ihnen helfen kann, bessere Bürger sowohl im Internet als auch in der realen Welt zu sein.

Es klingt, als ob Sie aus einer guten Absicht heraus handeln, Simon! Ich denke, die Person, die “einfach nicht verschwindet”, nachdem sie gebeten wurde zu gehen, ist sehr selten, aber wenn es doch vorkommt, würde ich sagen, dass sie den gleichen Respekt verdient, den wir jedem anderen in Bezug auf ein “Recht auf ein Verfahren” gewähren. Ein vollständiges Verfahren wird nicht bei jedem Online-Verstoß stattfinden, daher ist der Kompromiss, den ich vorschlage, dass alle Nutzer wissen sollten, wann sie moderiert wurden. Dies wegzunehmen ist wie die Abschaffung der Justiz. Was die psychische Gesundheit betrifft, so werden selbst Psychiater solche Beurteilungen nicht vornehmen, ohne die Person persönlich zu untersuchen. Daher denke ich nicht, dass wir dies tun sollten. “Sie sind verrückt” wird unweigerlich zur Ausrede, das Recht auf ein Verfahren zu entziehen, indem man Schattenmoderation einsetzt.

Wenn der Inhalt illegal ist, etwas, das “im Kontext direkt spezifischen, unmittelbaren, schweren Schaden verursacht” [1] (eine Definition von Nadine Strossen), dann sollte dies den Behörden gemeldet werden.

Schließlich, wenn Sie glauben, dass Selbstverletzung eine Rolle spielt, könnten Sie eine Krisenhotline empfehlen. Theoretisch ist es möglich, dass das heimliche Entfernen von Kommentaren von Nutzern, die Gewalt gegen sich selbst oder andere befürworten, sie wahrscheinlicher dazu bringt, ihren falschen Überzeugungen nachzugehen.

Betrachten Sie eine Gruppe, die Sie als hasserfüllt betrachten. Sie könnten immer noch Aufrufe zu tatsächlicher Gewalt entfernen. Aber wenn Mods dies heimlich tun, erhält die gewalttätige Person kein Signal, dass ihre Ansichten nicht mit der Gemeinschaft übereinstimmen. Wer kann sagen, ob dies sie wahrscheinlicher oder unwahrscheinlicher macht, zu handeln? Sie könnten die mangelnde Gegenreaktion als stillschweigende Zustimmung wahrnehmen.

Mein Argument ist dasselbe wie das von Richter Brandeis: Sonnenlicht ist das beste Desinfektionsmittel [1] und eine Lösung erfordert die Einbeziehung der Gemeinschaft. Anstatt Kommentare heimlich zu entfernen, auch hasserfüllte, können Sie ihnen ein Signal bezüglich der Entfernungen geben. Dieses Signal wird zu einer Chance, dass sie von einer anderen Interaktion profitieren, sei es von Ihrer Gemeinschaft, einer anderen Gemeinschaft oder Strafverfolgungsbehörden. Dadurch können Sie den Rändern der Gesellschaft die Chance geben, sich weniger isoliert zu fühlen, und sich und die Welt zu einem sichereren Ort machen.

Im Allgemeinen versuche ich, den Rat von Jonathan Rauch zu befolgen. Er sagt hier,

“Die Person, mit der Sie sprechen, ist nicht die Person, mit der Sie direkt sprechen…”

Im Grunde müssen Sie nicht jeden davon überzeugen, dass Sie Recht haben. Es reicht aus, vernünftig zu erscheinen angesichts von jemand anderem, der dogmatisch oder sogar zensurfreudig ist. Während es wahr ist, dass jemand sich legal zensurfreudig verhalten kann, indem er versucht, Sie mit hasserfüllten Worten niederzuschreien, sehen sie auch wie Idioten aus, vorausgesetzt, Sie geben ihnen den richtigen Spielraum. Jede Wahrnehmung, dass dies online nicht funktioniert, könnte sehr wohl auf die weit verbreitete Nutzung von Schattenentfernungen zurückzuführen sein. Wenn Sie versuchen, eine “hasserfüllte” Gruppe in ihrem eigenen Raum anzusprechen, können Sie ohne Ihr Wissen schattenmoderiert werden!

Im selben Vortrag sagt Rauch hier: “Hasser begraben sich am Ende selbst, wenn man sie reden lässt.” Und er weiß, was funktioniert. Als schwuler Mann, der in den 60er Jahren aufwuchs, wie hier beschrieben [1], ist Rauch offenbar seit Jahrzehnten in der Schwulenrechtsbewegung aktiv, mit wohl beträchtlichem Erfolg. Er ist es also wert, zu diesem Thema der freien Meinungsäußerung gehört zu werden, unabhängig von Ihren Gefühlen gegenüber Homosexualität oder der gleichgeschlechtlichen Ehe. Von der Spanischen Inquisition über Anthony Comstock bis hin zum Kommunismus und McCarthyismus, bis hin zur PMRC von Tipper Gore, die heutige Ära der sozialen Medien ist nicht das erste Mal, dass die freie Meinungsäußerung herausgefordert wurde, und sie wird nicht die letzte sein.

Ich habe Rauchs Denkweise als äußerst effektiv empfunden, um meine eigene Beteiligung zu moderieren und andere ihre Meinung sagen zu lassen, während ich trotzdem meinen Standpunkt darlege. Ich entdecke ständig neue Wege, zu akzeptieren, dass (a) ich nur mich selbst ändern kann und (b) das ausreicht, um einen positiven Einfluss auf die Welt zu haben.

4 „Gefällt mir“

Möglicherweise gibt es hier zwei getrennte Probleme. Das erste Problem sind Moderatoren, die ihr Bestes tun, um mit problematischem Verhalten umzugehen. Shadow Banning von obskuren Benutzern wurde hier als Ansatz dafür vorgeschlagen: Discourse Shadowban. Ich kann die Motivation verstehen, aber ich glaube nicht, dass dies als Moderationstechnik viel Anklang finden wird - wenn ein Benutzer so hartnäckig ist, verzögert dies nur einen unvermeidlichen Konflikt.

Das zweite Problem ist, was auf anderen Plattformen passiert, wo die Reichweite einiger Benutzerbeiträge begrenzt ist, ohne den Benutzern irgendeinen Hinweis darauf zu geben, was vor sich geht. Bemerkenswert ist, dass diese Benutzer nicht gegen die Nutzungsbedingungen des Dienstes verstoßen haben. Es wäre technisch möglich, ein Discourse-Plugin zu erstellen, das etwas Ähnliches implementiert, aber es sei denn, die Website wäre extrem aktiv, ich denke, es würde schnell entdeckt werden. Ich denke tatsächlich, dass Discourse und andere dezentrale Community-Plattformen das Gegenmittel zu diesem Problem sind. Als extremes Beispiel: Wenn jemand eine Community gründen möchte, in der die Aussage “die Erde dreht sich um die Sonne” als gefährliche Fehlinformation gilt, steht es ihm frei, dies zu tun. Menschen mit einer heliozentrischen Weltanschauung können einfach eine andere Community finden, der sie beitreten können.

Ein weiteres Problem wäre, wenn es unmöglich wäre, Hosting oder einen Zahlungsabwickler für eine Community zu finden, die gegen die vorherrschende Erzählung zu einem bestimmten Thema verstößt. Abgesehen davon, die Werte der intellektuellen Neugier und Vielfalt zu fördern, habe ich keine großartigen Vorschläge, wie damit umzugehen ist.

Vielleicht, aber auch das Entwickeln von Lösungen für reale Probleme ist eine gute Geschäftsstrategie. Wie man Menschen mit ihrem trollartigen Verhalten hilft, anstatt sie einfach zu sperren, scheint ein ungelöstes Problem zu sein. Ich kann mir vorstellen, dass Discourse einige Werkzeuge bereitstellt, um Communities dabei zu helfen. Es könnte auch an einen externen Dienst ausgelagert werden, der von geschulten Therapeuten besetzt ist.

5 „Gefällt mir“

Simon, ich weiß es zu schätzen, dass Sie sich die Zeit für eine Antwort genommen haben. Ich kann sehen, dass Sie von meinem Argument, dass Trolle manchmal in Ruhe gelassen werden können (d. h. durch transparente Moderation im Gegensatz zu verdeckter Moderation), nicht überzeugt sind, und Sie scheinen auch nicht davon überzeugt zu sein, dass verdeckte Moderation Discourse zu erhöhter Nutzung verleiten kann. Vielleicht stimmt das, vielleicht auch nicht. Ich denke, die Zeit wird es zeigen, aber nicht unbedingt bald. Ich bin entschieden anderer Meinung, dass verdeckte Moderation “schnell entdeckt” wird. Ich stimme zu, dass die Förderung von intellektueller Neugier und Vielfalt nicht unterschätzt werden darf und dass eine gute Geschäftsstrategie eine grundlegende Rolle spielt.

2 „Gefällt mir“

Verlinkung der offiziellen Discourse-Position hier

12 „Gefällt mir“

Vielleicht war ich zu vorsichtig, wenn ich meine Gedanken hier geäußert habe:

Ich halte Shadow Banning für eine schreckliche Idee. Abgesehen davon habe ich viele Bedenken hinsichtlich der Zukunft des Internets, aber was Discourse betrifft, mache ich mir keine Sorgen, dass Shadow Banning oder die heimliche Manipulation von Inhalten einer Website Anklang finden wird. Erstens existiert die Funktionalität, wie oben erwähnt, nicht im Kerncode von Discourse und das Team hat keine Pläne, Plugins dafür zu entwickeln. Zweitens sehe ich keinen gültigen Anwendungsfall für die Hinzufügung dieser Art von Funktionalität zu einer Discourse-Website – ich kann mir keinen Fall vorstellen, in dem die Implementierung die Eigentümer einer Website begünstigen würde.

Wenn ich noch etwas fördern könnte, dann wäre es der Wert von Meinungsverschiedenheiten. Die Förderung von Meinungsverschiedenheiten, im Gegensatz zur Übereinstimmung, ist der schnellste Weg, um alle verfügbaren Standpunkte einer Gruppe von Menschen einzuholen.

5 „Gefällt mir“

Ich weiß, dass es Situationen gibt, in denen ein Shadowban-Plugin/-Funktion benötigt wird.

Wir haben ein kostenpflichtiges Programm und 99 % unserer Studenten lieben es. Dann gibt es ein paar faule Äpfel, die in die Foren gehen und die anderen mit Negativität “vergiften”. Jetzt haben diese Leute für etwas bezahlt, also verbreitet der faule Apfel FUD (Fear, Uncertainty, Doubt) und neue Leute kommen herein und sehen den FUD, also bitten sie um eine Rückerstattung.

Der faule Apfel hat auch bezahlt, also wollen wir auch von ihm keine Rückerstattung, da diese Art von Leuten normalerweise am meisten unserer Zeit in Anspruch nimmt.

Meine Mitarbeiter verbringen Stunden und Stunden damit, sich mit den faulen Äpfeln auseinanderzusetzen und zu verhindern, dass sie die guten Äpfel vergiften.

Also ja… wir wollen die faulen Äpfel einfach per Shadowban sperren, damit das Support-Team auf ihre Beiträge und Antworten reagieren kann und sie denken, sie sind “dabei” und das Leben ist fröhlich und glücklich für unser Support-Team und unsere großartigen Benutzer werden nicht vergiftet.

Bevor Sie sagen: “Erstatten Sie den faulen Äpfeln einfach ihr Geld zurück”… nein, das ist nicht die Antwort.

Wir brauchen eine Shadowban-Funktion für Themen und Antworten und pro Benutzer, wenn wir sie dauerhaft per Shadowban sperren.

Es gibt einen legitimen Anwendungsfall für diese Funktion.

2 „Gefällt mir“

Aus reiner Neugier, warum wäre es in dieser Situation nicht die Antwort, die unerwünschten Mitglieder aus Ihrer Community zu entfernen?

Wäre es nicht auch ein größeres Problem, wenn/falls sie herausfinden würden, dass sie für etwas bezahlen, das sie nicht vollständig erhalten? (d. h. Teilnahme an Ihrer Community)

5 „Gefällt mir“

Sie würden eine Rückerstattung erhalten. Sie bekommen aber viel mehr als nur die Community. Die Foren sind nur ein kleiner Teil. Software, Werkzeuge, Bildung. Was sie nicht tun dürfen, ist, andere in der Community zu verunsichern und andere dazu zu bringen, zu zweifeln oder eine Rückerstattung zu wünschen. Nachdem wir das seit 20 Jahren tun, wissen wir, dass es einen bestimmten Prozentsatz von Menschen gibt, die dem Leben gegenüber alles negativ sehen, daher müssen wir unsere zahlenden Kunden, die handeln, schützen.

Wenn sie nur für ein Forum bezahlen würden, wäre das anders… aber dies ist ein 2.000-Dollar-Produkt, daher müssen wir unsere zahlenden Mitglieder vor den negativen Nörglern schützen.

2 „Gefällt mir“