Im Englischen kann jeder zensieren, privat oder öffentlich. Wir sagen sogar, dass Leute sich selbst zensieren können.
Ich argumentiere hier, dass die wahre Zensur des digitalen Zeitalters die Schattenmoderation ist. Fühlen Sie sich frei, dort oder hier zu kommentieren, wenn Sie zustimmen oder nicht zustimmen.
Diese Plattformen stehen stark unter Beobachtung, weil sie bestimmte Beiträge nicht gelöscht haben.
Andererseits bin ich persönlich nicht sehr glücklich darüber, dass ein ausländisches Unternehmen oder eine ausländische Person unsere Demokratie beeinflussen kann, indem sie Beiträge nach ihren (eigenen) Regeln entfernt.
Ich denke also, das wäre ein guter Mittelweg. Besser als alles andere.
Ich denke, wir sind uns einig. Ich unterstütze das Recht der Plattformen, zu entfernen, was sie wollen, auch Beiträge von Nutzern, die sich über zensierte Inhalte beschweren. Sie sollten die Autoren der entfernten Beiträge jedoch informieren.
Ja, auf nationaler Ebene ist das gemeinsame Risiko offensichtlich. Aber es zeigt sich auch auf lokaler Ebene. Stellen Sie sich vor, Ihre Hausbesitzervereinigung hat eine Chatgruppe und Sie schreiben einen kritischen Kommentar über ihre Führung oder ihre Beiträge. Wenn der Leiter dieser Gruppe heimlich Ihren Kommentar löschen kann, kann er dann eine Kampagne gegen Sie führen. Und seine Kritik an Ihnen scheint Ihrer Kritik an ihm vorauszugehen, was Sie wie ein Kind erscheinen lässt. Macht das Sinn?
Der Punkt ist, dass man diese Art der Inhaltsmoderation nirgendwo haben möchte, weder in Gemeinschaftsgruppen, Schulgruppen und schon gar nicht auf globalen Plattformen. Doch das ist unsere gegenwärtige Realität. Und trotz weit verbreiteter Bedenken hinsichtlich sozialer Medien konnte ich bisher keine etablierte Bürgerrechts- oder freie Meinungsäußerungsorganisation davon überzeugen, sich öffentlich gegen die Nutzung von Shadow-Moderation auszusprechen.
Das ist zu vereinfacht, aber ich stelle mir zwei Gruppen vor, Technologen und Experten für freie Meinungsäußerung, die jeweils wichtige Fachkenntnisse besitzen, aber jeweils die Fachkenntnisse des anderen vermissen.
(1) Technologen glauben fälschlicherweise, dass Zensur der richtige Weg ist, mit Trollen umzugehen.
(2) Experten für freie Meinungsäußerung glauben fälschlicherweise, dass Shadow-Bans notwendig sind, um mit Bots umzugehen.
Irgendwie muss die Lücke zwischen den beiden geschlossen werden, damit sie von den jeweiligen Fachkenntnissen profitieren können.
Ich werde verzichten, weil wir dann Linien ziehen müssen, ob Fehlinformationen und Fantasien von Trollfabriken im Namen der freien Meinungsäußerung zugelassen werden sollten. Und dann werden wir stark vom Zweck dieser Plattform abweichen, alias. vom Thema abkommen.
Das ist ein interessantes Szenario, das Sie hier beschreiben. Das ist schon manipulative soziale Manipulation, die alle möglichen Probleme und Missverständnisse hervorrufen kann.
Ich bin nicht amüsiert. Zum Teil, weil unsere Ostgrenze in drei Stunden geschlossen sein wird. Und eine große Trollfabrik hat gerade auf X mitgeteilt, dass dies geschieht, weil die NATO Finnland übernommen hat und einen Überraschungsangriff plant. Aber hey, das sollte im Namen der freien Meinungsäußerung nicht zensiert werden.
Trollfabrik ist ein gültiger Begriff. Wussten Sie das nicht?
Ich entschuldige mich für den Witz, aber ich habe nicht gesagt, dass nichts zensiert werden sollte. Ich sagte, geheime Zensur befähigt Trollfabriken bis zu dem Punkt, an dem sie Plattformen kontrollieren, was anscheinend das ist, was Sie beschreiben. Wir brauchen Transparenz, um alle auf den gleichen Stand zu bringen.
Ja, unzählige Manipulationen werden möglich, wenn man selbst eine „ausnahmsweise“ Nutzung von Schattenverboten zulässt. Ich bin unzähligen klugen Leuten begegnet, die der Meinung sind, dass die ausnahmsweise Nutzung von Geheimhaltung gegenüber Verbündeten akzeptabel ist. Um es klar zu sagen: Dies ist die vorherrschende Denkweise in der Welt der Inhaltsmoderation bei Social-Media-Unternehmen, unter Akademikern und sogar bei einigen großen Institutionen, die behaupten, die freie Meinungsäußerung zu unterstützen.
Menschen haben in vielen Ländern auch ein Recht auf Privatsphäre sowie auf Meinungsfreiheit.
Bei begutachteten wissenschaftlichen Arbeiten und legitimen Printpublikationen müssen diese vor der Veröffentlichung begutachtet werden. Das bedeutet nicht, dass die Menschen nicht trotzdem das Recht haben, sich frei zu äußern.
Ich sage nur, dass es Leute gibt, die sich mit Inhaltsmoderation beschäftigen, aber sie beschäftigen sich nicht mit den Auswirkungen von Shadow- oder nicht offengelegter Moderation. Das ist eine riesige Forschungslücke.
Sie haben Recht, darauf hinzuweisen, dass es den Leuten frei steht, das zu studieren, was sie wollen. Meiner Meinung nach ist der Mangel an Forschung zur Shadow-Moderation eine offensichtliche Auslassung und eine riesige Chance für jeden Forscher, die ergreifen kann.
Sicher gibt es dort eine Forschungsmöglichkeit, aber wenn die Daten der Öffentlichkeit vorenthalten werden, sind Studien ohne Umfragen, bei denen die Leute ihre Erfahrungen mit Shadow-Bans melden können, nicht genau. Aber wie Sie bereits erwähnt haben, wissen sie vielleicht nicht einmal, dass dies geschieht.
Wie auch immer, das würde über den Zweck dieser Support-Website hinausgehen, es sei denn, sie konzentriert sich speziell auf die Discourse-App.
Da dies Open-Source für unabhängige Websites ist, fällt es nicht in die gleiche Kategorie wie andere Closed-System-Apps.
Nicht unbedingt. Ein Forscher könnte Werkzeuge entwickeln, um zu verfolgen, was entfernt oder geändert wurde. Das ist auf Reddit bereits möglich, wie ich mit der Website und der Erweiterung von Reveddit demonstriere. Im Allgemeinen sollte eine Erweiterung immer in der Lage sein, öffentlich sichtbare, nach Datum geordnete Kommentarbereiche zu verfolgen. Und öffentliche Foren könnten der Ort sein, an dem der Löwenanteil der Schattenmanipulation stattfindet, da dies der sichtbarste und somit am häufigsten geteilte Inhalt ist.
Außerdem könnte man auch Forschungsarbeiten über Interviews mit Personen veröffentlichen, die über Schattenmoderation auf verschiedenen Plattformen nachdenken. Man muss nicht unbedingt wissen, was entfernt wurde, um Forschung zu veröffentlichen. Allein das Wissen, wie es gemacht wird, reicht aus, um etwas Interessantes beizutragen.
Dies ist ein allgemeines Diskussionsforum über Community-Moderation. Ich glaube nicht, dass es vom Thema abweicht, Inhaltsmoderationsforschung zu diskutieren.
Das würde ich nicht sagen. Jemand, der Open-Source betreibt, kann zusätzlichen Code hinzufügen, von dem Sie nichts wissen. Es gibt keine Garantie, dass er den ursprünglichen Code ausführt. Der beste Weg, eine vertrauenswürdige Community zu führen, meiner Meinung nach, ist zu erklären, dass Sie keine Schattenmoderation verwenden und alle Moderationsaktionen gegenüber Content-Autoren transparent machen.
Wenn nachgewiesen werden kann, dass eine bestimmte Person oder Organisation dies tut, können Sie ihnen eine rechtliche Mitteilung senden, dass Sie Anklage wegen Belästigung/Störung erheben können/werden, wenn sie nicht aufhören, oder dass sie Webdienste ohne Erlaubnis nutzen. Menschen können dafür strafrechtlich verfolgt werden.
Das funktioniert nur, wenn man namentlich genannt wird, nicht anonym. Anonymität hat ihren Platz, um bestehende Richtlinien anzufechten, aber wir erwarten, die Namen von Personen zu kennen, die Foren betreiben, die wir als vertrauenswürdig bezeichnen.
Der frühere Name des Kontos war immer noch anonym; es war kein echter Name. Außerdem wissen wir nicht, welches Forum er verwaltet. Wenn jemand die Erklärung abgeben möchte, dass er keine Schattenmoderation betreibt, sollte er dies dort tun, wo seine Identität und Zugehörigkeit bekannt sind.
Das bedeutet nicht, dass alle Benutzer identifiziert werden müssen, sondern nur, dass der Name des Forenmanagers bekannt sein sollte, damit jemand für die Übereinstimmung oder Nichtübereinstimmung der Website mit ihrem angegebenen Verhalten zur Rechenschaft gezogen werden kann. Zum Beispiel wurden Ben Franklins Briefe an „Mrs. Silence Dogood“ anonym in einer Zeitung veröffentlicht, die von seinem Bruder geführt wurde. Auch die Federalist Papers und Cato’s Letters wurden anonym veröffentlicht, aber von Zeitungen bekannten Rufs vertrieben. Man kann also immer noch Anonymität und wertvolle Beiträge zum Diskurs zulassen, vorausgesetzt, jemand stellt seinen Namen hinter die Verbreitung.
Der Autor des Kommentars bat darum, anonymisiert zu werden.
Manchmal ist es besser, wenn Suspendierungen und Stummschaltungen für Nicht-Mitarbeiterkonten nicht sichtbar sind. Jeder Community-Besitzer muss jedoch entscheiden, welche Philosophie am besten funktioniert. Für die öffentliche Wahrnehmung
Suspendierungen anonymisieren keine Konten, dies wird von einem Forenteam oft auf Benutzerwunsch durchgeführt.
Plattformen behaupten seit langem, dass Shadow Banning notwendig sei, um Spam zu bekämpfen, aber Shadow Bans täuschen keine Bots. Schockierenderweise stellt sich heraus, dass Plattformen, wenn sie von „Spam“ sprechen, sich auf Inhalte beziehen, die von Ihnen und mir, echten Nutzern, verfasst wurden. Aber sie waren diesbezüglich nicht offenherzig.