Moralisch gesehen kann ich nicht sehen, wie das in einer kleinen Gemeinde funktionieren soll. Wenn die Benutzer überhaupt technikaffin sind, werden sie wahrscheinlich herausfinden, was vor sich geht. Schon die Google-Suche nach „Discourse Shadowban“ wird sie direkt zu diesem Thema führen.
Das ist ein wichtiger Hinweis!
Viele interessante Diskussionen in diesem Thema, ein paar verschiedene Hauptideen zum Nachdenken.
Mit Discourse kann die Funktion, jemanden stummzuschalten/zu ignorieren, als eine Form des Shadowbannings betrachtet werden, aber nur für den Einzelnen, nicht für alle anderen.
Mit dem Post-Flag-System wird Habeas Corpus nicht unbedingt geehrt, wenn Moderatoren als Reaktion auf Flags Maßnahmen ergreifen, während die Personen, die etwas gemeldet haben, anonym bleiben. Dies liegt jedoch im Ermessen der Moderatoren, wie Flags überprüft werden. Idealerweise basieren ihre Entscheidungen auf ihrer eigenen Interpretation dessen, was gemeldet wird, und nicht auf den Meldungen selbst.
Es gibt eine Möglichkeit zur Diplomatie, wenn ein Community-Mitglied beschließt, sich als die Person zu identifizieren, die etwas gemeldet hat, das mit einem Flag versehen wurde, sei es nur, weil es themenfremd oder unangemessen war oder aus einem anderen Grund gemeldet wurde. Dann besteht jedoch die Gefahr einer Eskalation zu einem Streit, der nichts weiter bewirkt, als die Leute zu verärgern.
Im Allgemeinen könnten die Gründe, warum Plattformen Maßnahmen zur Kategorisierung von Shadowbannings implementieren, die Deeskalation/Vermeidung von Streitigkeiten/Konflikten sein, was aus der Perspektive des Community-Managements, das möchte, dass alle miteinander auskommen und sich über alles einig sind, vernünftig erscheinen mag. Wenn es jedoch legitime Meinungsverschiedenheiten über etwas gibt, kann es besser sein, Raum für die Leute zu schaffen, um auszudrücken, warum/ob sie verärgert sind, damit sie besser verstanden werden können.
Das ergibt Sinn, so wie du es beschreibst, auch wenn nicht jeder damit einverstanden sein mag.
Ist die von dir in Marketplace gepostete Feature-Entwicklung für eine Open-Source-Lösung oder nur für deinen spezifischen Anwendungsfall?
Meinen Sie, dass der Kunde eine Rückerstattung beantragen würde? Das ist unwahrscheinlich, wenn er nicht weiß, dass er zensiert wird. Und es wäre unethisch von Ihnen, weiterhin Geld von ihm anzunehmen und ihn gleichzeitig ohne sein Wissen zu zensieren.
Wenn Sie hingegen meinen, dass Sie ihm eine Rückerstattung gewähren würden, dann besteht überhaupt keine Notwendigkeit, diesen Benutzer heimlich zu zensieren. Wenn sein Konto gekündigt wurde, hat er keinen Zugriff mehr auf den Dienst.
Sie gehen davon aus, dass die Benutzer wissen, dass sie „Shadowbanned“ werden, was meiner Beobachtung nach meistens nicht der Fall ist. Aktive Kommentatoren sind sich im Allgemeinen nicht bewusst, wenn sie „Shadowbanned“ werden.
„Shadowbans“ werden auf vielen großen Plattformen häufig eingesetzt, weil die Benutzer entweder nichts davon wissen oder nicht glauben, dass es ihnen passiert. Die Benutzer verschwenden daher Zeit mit Kommentaren, während die Plattformen Werbeeinnahmen auf der Grundlage höherer Benutzerzahlen erzielen, die sie mithilfe von Täuschung erreichen.
Es schien, als ob eine Rückerstattung gewährt würde, wenn jemand feststellt, dass er schattenverboten wurde und deshalb eine Rückerstattung beantragt. Dennoch könnte dies, selbst wenn dies ihre Politik ist, ein mögliches Klagerisiko darstellen, wenn jemand für eine Plattform bezahlt hat, auf der er glaubt, dass die Leute lesen können, was er postet, sich aber herausstellt, dass dies eine Lüge war.
„Es schien, als ob eine Rückerstattung gewährt würde, wenn jemand feststellt, dass er schattenverboten wurde, und deshalb eine Rückerstattung beantragt. Selbst wenn dies ihre Richtlinie wäre, könnte dies ein mögliches Klagerisiko darstellen, wenn jemand für eine Plattform bezahlt hat, auf der er glaubt, dass die Leute seine Beiträge lesen können, sich aber herausstellt, dass dies eine Lüge war.“
Ich stimme Ihnen zu, dass die Verwendung von Schattenverboten Risiken birgt, sei es durch Klagen oder durch die Vertrauenswürdigkeit Ihres Unternehmens.
Aber auch ohne Klage war es hier das Ziel festzustellen, ob Schattenverbote irgendeinen gültigen Anwendungsfall haben, nicht zu zeigen, wie man Kunden täuscht, um ihr Geld zu bekommen. Die Antwort auf die Frage nach dem gültigen Anwendungsfall ist noch einfacher, wenn es um zahlende Kunden geht. Sie hören einfach auf, ihr Geld anzunehmen, Schattenverbote sind nicht notwendig.
Ein möglicher Anwendungsfall für einen Shadow-Bann ist, wenn die Absicht von jemandem darin besteht, eine Community-Website zu stören, sodass, wenn er offen gesperrt wird, er unabhängig von der Sperre ein neues Konto erstellen möchte.
Wenn man identifizieren kann, wer dies versucht, könnte man einfach die Genehmigung neuer Kontoanträge verweigern, wahr.
Shadow-Bans besiegen keine Trolle, sie stärken sie. Die Zahl der Leute, die die nötige Zeit aufwenden würden, um Sperren zu umgehen, ist relativ gering, und diese entschlossenen böswilligen Akteure werden Shadow-Bans eher entdecken als der durchschnittliche gutgläubige Nutzer. Selbst auf Reddit, das über fortschrittliche Techniken zur Identifizierung verknüpfter Konten verfügt, beschweren sich Moderatoren in r/ModSupport immer noch regelmäßig über Nutzer, die sowohl Sperren als auch Shadow-Bans umgehen. Was Sie also wollen, sind keine täuschenden Werkzeuge, Sie wollen vertrauenswürdige Communities aufbauen. Das braucht mehr Zeit, ist aber besser, als eine Community auf Misstrauen zu gründen.
Wenn Sie Shadow-Bans in Ihre Community einführen, ist Vertrauen nicht mehr gegeben. Sie stärken daher Trolle, die keine Skrupel haben, Täuschung zur “Moderation” einzusetzen. Die Trolle, die nun die Kontrolle haben, verdrängen am Ende gutgläubige Nutzer, die sich nie vorstellen würden, dass ein Forum ihnen das antut. Mit anderen Worten, Sie werden zum König der Trolle. Sie möchten nicht, dass jemand heimlich Ihre eigenen Kommentare ohne Ihr Wissen entfernt, daher ist es sinnlos, dies bei anderen zu tun, und es ist auch sinnlos, andere dazu zu ermächtigen.
Was Bots oder Spam betrifft, so täuschen Shadow-Bans keine Bots, nur Captchas täuschen Bots. Shadow-Bans täuschen nur echte Menschen.
Für eine vertrauenswürdige Community wäre es offensichtlich, wenn ein Konto stummgeschaltet worden wäre.
Nun, für eine vertrauenswürdige Community wäre es offensichtlich, wenn ein Konto stummgeschaltet worden wäre.
Es ist nicht vertrauenswürdig, wenn Sie Shadowbans verwenden, aber um der Argumentation willen, für wen wäre das offensichtlich? Nicht für den heimlich stummgeschalteten Benutzer, noch für die Community, da jedes Mitglied nicht zu jedem Thema kommentieren wird. Beachten Sie, dass ein Shadowban oft auf einzelne Kommentare angewendet wird, nicht unbedingt auf ein ganzes Konto.
Nun, für eine Community von sagen wir zwanzig Leuten, wenn sie außerhalb der Shadow-Ban-App kommunizieren, würden die meisten Leute innerhalb weniger Tage feststellen, dass nicht alles, was sie geschrieben haben, veröffentlicht wird.
Wenn man telefoniert, könnte man einfach fragen: „Hey, hast du den Kommentar gesehen, den ich geschrieben habe?“
Nun, für eine Community von sagen wir zwanzig Leuten, wenn sie außerhalb der Shadow-Ban-App kommunizieren, würden die meisten Leute innerhalb weniger Tage erkennen, dass nicht alles, was sie geschrieben haben, veröffentlicht wird.
Das bezweifle ich. Diese Praxis begann mit den Anfängen des Internets und schwoll zu dem an, was Sie jetzt sehen – Plattformen mit Milliarden von Nutzern.
Wie auch immer, es lohnt sich, das zu erforschen. Jemand sollte die Auswirkungen von Shadow-Bans untersuchen. Bis heute habe ich eine solche Studie nicht gesehen.
Dies würde in die Kategorie der Kommentarbearbeitung/-filterung fallen. „Ban“ bedeutet vollständige Zensur.
„Bann“ bedeutet einfach, dass etwas nicht erlaubt ist. Das kann ein Schlüsselwort, ein Link, ein Thema, ein Konto oder nur ein einzelner Kommentar oder eine einzelne Ansicht sein. Der Begriff „Shadow Ban“ wurde der Öffentlichkeit erstmals im Zusammenhang mit Bans bekannt, die heimlich auf ganze Konten angewendet wurden. Plattformen versäumen es jedoch auch, unzählige Maßnahmen gegen einzelne Beiträge den Autoren dieser Beiträge nicht mitzuteilen.
Der schattenhafte Aspekt, bei dem der Autor eines gefilterten/gedrosselten/herabgestuften/entfernten Beitrags nicht weiß, dass jemand Maßnahmen gegen seinen Inhalt ergriffen hat, ist wirklich der wichtigste Teil und sollte nicht ausgelassen werden. Ich bevorzuge den allumfassenden Begriff „Shadow Moderation“, verwende aber oft „Shadow Ban“, da viele Leute dieses Wort bereits in den Nachrichten gesehen haben. Sehen Sie zum Beispiel diesen WaPo-Artikel, der den Begriff „Shadow Ban“ verwendet, um Maßnahmen gegen ganze Konten und einzelne Beiträge zu beschreiben.
Ok, ich stimme zu, dass das ein Problem sein kann. Bei Discourse liegt es an den Moderatoren, ob sie jemanden als Höflichkeit darüber informieren möchten, dass seine Beiträge bearbeitet/entfernt werden. Das ist normalerweise höflich. Beim Flag-System gibt es die automatische Benachrichtigung, wenn ein Beitrag markiert wurde, und dann hat der Autor die Möglichkeit, den Beitrag nach einer “Abkühlzeit” von zehn Minuten zu überprüfen/zu bearbeiten. Das ist ein ausgeklügeltes System.
Bei riesigen Plattformen wie Google YouTube ist die Situation anders. Ich habe gesehen, dass, wenn jemand von einem Kanal gesperrt wird, seine Kommentare zensiert werden, aber er darüber nicht benachrichtigt wird.
Bei Discourse liegt es an den Moderatoren, ob sie jemanden darüber informieren wollen, dass seine Beiträge bearbeitet/entfernt werden.
Ja, es liegt an der Plattform. Ich plädiere nicht für eine gesetzliche Lösung, um Plattformen die Hände zu binden. Das würde der Regierung nur die Macht zur Zensur geben, genau davor schützt der erste Verfassungszusatz. Außerdem würde eine gesetzliche Lösung möglicherweise nicht für Social-Media-Dienste gelten, die ihren Hauptsitz im Ausland haben. Oder wenn sie gelten würde, wäre sie schwer durchzusetzen.
Bei riesigen Plattformen wie Google YouTube ist die Situation anders. Ich habe gesehen, dass, wenn jemand von einem Kanal gesperrt wird, das bedeutet, dass seine Kommentare zensiert werden, aber er wird darüber nicht benachrichtigt.
Reddit und Twitter/X waren einst klein, doch sie haben sich auch mit diesem Thema auseinandergesetzt, zum Beispiel hier im Jahr 2007:
Eine bessere Idee ist ein stiller Bann. Lass ihn Kommentare posten und zeige ihm diese Kommentare, aber lass sie für alle anderen weg.
So sind die Plattformen möglicherweise mit Hilfe von Shadow-Moderation gewachsen. Indem sie diese nutzen, lassen die Plattformen die Nutzer im Glauben, dass sie ihre Ansichten ohne Zensur teilen können. In Wirklichkeit verschwenden die Nutzer ihre Zeit mit dem Schreiben, während die Plattformen Werbeeinnahmen scheffeln.
Sie verwenden die Vergangenheitsform, aber Twitter/X tut dies auch im Jahr 2023 noch.
Sprachunterschiede sind interessant, oder ist das eher eine Frage der Kultur, aber ziemlich weitgehend kann nur der Staat/die Regierung Zensur betreiben. Private Unternehmen niemals. Und dann Moderation, ob sie transparent oder im Verborgenen stattfindet, ist kein Teil der Zensur und der Begriff Zensur wird meist nur in… abgeschwächter Bedeutung verwendet.
Aber weitermachen, das ist ein interessantes Thema und ich versuche, es zu verfolgen.
Sie verwenden die Vergangenheitsform, aber Twitter/X tut dies auch im Jahr 2023 noch.
Ja, ich wünschte, die Leute würden sich darauf konzentrieren. Das heißt, wie Inhalte entfernt werden, anstatt was entfernt wird. Es wäre eine einfache Codeänderung, um bestehende Shadowbans aufzudecken, und der CEO hat bereits versprochen, dies zu tun vor einem Jahr.
Der Grund für die Verzögerung, sagt der ehemalige Leiter von Trust & Safety bei X, Yoel Roth, ist, dass X den Nutzern auch den Grund für den Shadowban erklären muss. Er sagt, dass diese Erklärungen in Freitextnotizen verfasst wurden, die nicht für die Öffentlichkeit bestimmt waren, und daher zuerst kategorisiert werden müssen, bevor die Nutzer über ihre Shadowbans informiert werden können.
Ich glaube dieser Erklärung nicht. „Bare notice“ (nur eine Benachrichtigung), wie hier beschrieben von einem Forscher, ist von Erklärungen getrennt, und die Notwendigkeit der Kategorisierung ist keine Entschuldigung dafür, Nutzer weiterhin zu täuschen.
Immer wenn ich sehe, wie Leute den CEO von X als neuen Vorkämpfer der freien Rede falsch darstellen, versuche ich die Fakten richtigzustellen, aber ich habe keine große Anhängerschaft. Persönlich glaube ich nicht, dass wir uns auf eine Einzelperson oder Organisation verlassen können, um uns die freie Rede zu ermöglichen. Wir müssen diese Verantwortung selbst übernehmen. Sicherlich sollten wir uns, wo immer möglich, zusammenschließen, aber wenn Sie darauf warten, dass jemand anderes Ihre Rede schützt, riskieren Sie, getäuscht zu werden.