Leute benutzen den „Flat / Report“-Button als Ersatz für ein Augenroll-Emoji
, um ;TL/DR; anzuzeigen oder um anderweitig Verärgerung über Formatierung, Grammatik oder andere themenfremde Gründe auszudrücken.
Das Ergebnis ist: „Your post was flagged by the community.“
Ein Benutzer, der eine Moderationskategorie aufsucht, um zu fragen, was passiert ist, könnte dieselben Leute zurückbekommen, die diese Anfrage melden!
Ich habe das in meinen Gruppen gesehen und es ist mir gerade in einer anderen passiert. Ich spüre den Schmerz und die Beleidigung der hilflosen Unterdrückung, die völlig themenfremd ist und von der Community und nicht von offiziellen Moderatoren ausgeht.
Wenn Mods/Admins darauf vertrauen, dass Flags Community-Schutzschilde sind, prüfen sie möglicherweise keine Protokolle oder streiten mit der Community … selbst wenn solche Inhaltsbewertungen von vielleicht zwei Personen von Hunderten vorgenommen werden.
Das lässt mich auf die Discourse-Plattform schauen und mich fragen: „Was kann ich als Manager und als Benutzer/Mitglied dagegen tun?“
Manche Leute sind großzügig und melden Inhalte für uns. Aber dieses Privileg kann von den wenigen Leuten missbraucht werden, die missbräuchliche Macht in dem Werkzeug entdecken, das sie führen. Haben wir die Möglichkeit, das Recht von Einzelpersonen, Inhalte zu melden, auszusetzen oder Benutzern zu helfen, gegen eine solche Meldung Berufung einzulegen?
Danke.
(Und ja, ich fühle mich, als würde ich mich beschweren, weil es mir gerade passiert ist, aber es hat die Gedanken auf diesen Weg gebracht…
)
Wenn Leute das Inhaltskennzeichnungssystem missbrauchen, sollten sie dieses System nicht nutzen dürfen, Punkt. Es ist keine Funktion zum Spielen, da sie Zeit verschwendet und andere Community-Mitglieder davon abhält, zu posten, selbst wenn das, was sie gepostet haben, den Richtlinien der Website entsprach. Gegen die Personen, die das Kennzeichnungssystem unangemessen nutzen, sollte eine offizielle Verwarnung ausgesprochen werden, und wenn sie ihr Verhalten auch nach einer Moderationsintervention mit einer Verwarnung fortsetzen, wäre es angemessen, ihre Konten auf Vertrauensstufe eins zu beschränken (was die Kennzeichnung deaktiviert) oder eine Kontosperrung vorzunehmen.
Ich stimme vollkommen zu und wollte das auch in den OP aufnehmen. Ein Problem dabei ist, dass bei Tausenden von Mitgliedern und täglicher Markierung dies nur eine weitere Belastung für das Management darstellt, die überwacht werden muss.
Ich weise auf die Herausforderung hin und frage mich, ob es einen besseren Weg gibt.
Das ist natürlich nicht einzigartig für Discourse. Ich habe es auf jeder Plattform gesehen, die Community-Downvoting mit automatischer Inhaltsentfernung erlaubt. Leute missbrauchen die Daumen-runter-Funktion in sozialen Medien so sehr, dass einige Plattformen sie abschaffen.
Im Laufe der Zeit beginnen angesehene Inhaltsmoderatoren, ihren persönlichen Sinn für Angemessenheit in ihre Urteile über OT oder schädliche Inhalte einfließen zu lassen. Sie mögen vertrauenswürdige Community-Führer für ihre Beiträge zum Inhalt sein, aber das steht in keinem Zusammenhang mit ihrer Persönlichkeit und ihrem Urteilsvermögen als Community-Manager. Manche Leute sind sehr hilfreich bei der Diskussion von Themen von gemeinsamem Interesse, aber das bedeutet nicht, dass sie das Recht haben, andere zu zensieren.
Als Website-Betreiber müssen wir die Manager managen – die Katzen hüten. Auf größeren Websites ist das nur eine weitere zeitaufwändige Aufgabe, mit der nur wenige von uns viel Zeit verbringen.
Zusammenfassung: Ich/wir können auf Markierungen achten, markierte Beiträge lesen, den Grund für die Markierung prüfen und Manager bitten, etwas weniger rigoros vorzugehen. Aber die Möglichkeit zu markieren scheint an TL1 gebunden zu sein. Wir wollen das Vertrauensniveau eines Benutzers nicht ändern, obwohl per Definition, wenn wir dem Benutzer nicht vertrauen können, bessere Urteile zu fällen, wir es irgendwie tun müssen. Dies führt zu flexibleren Gruppenberechtigungen anstelle von TLs.
Für den Benutzer/Mitglied gibt es jedoch anscheinend keine Möglichkeit für Leute, die TL1-Moderation der Community anzufechten, wenn die TL1-Moderatoren der Community die Möglichkeit haben, Berufungen zu unterdrücken. Auch hier liegt die Last auf dem Eigentümer/den Administratoren (allen hier), die Aktivitäten zu überwachen und die Richtlinien durchzusetzen. Wie viele Eigentümer/Administratoren sind sich dessen tatsächlich bewusst?
Wenn Sie Teil dieses Mod-Teams sind… Eine Website-weite Ankündigung, die den Zweck und die Regeln für das Markieren eines Beitrags verstärkt. Personen, die diese Regel konsequent brechen, riskieren, zum Schweigen gebracht zu werden.
Andernfalls müssen Sie sich an das Mod-Team der Website wenden und sehen, ob es sich damit befassen würde.
Ich sehe in einem Subreddit – vielleicht in allen – dass die Downvote-Aktion mit einem Tooltip „Downvote nicht, weil du anderer Meinung bist!“ einhergeht. Vielleicht kann der Flaggen-Dialog eine ähnliche Notiz haben, und vielleicht auch der Tooltip.
Ich stimme zu, dass der anhaltende Missbrauch von Flags eine Straftat ist, und meiner Meinung nach wären Herabstufung, temporäre Sperre, permanente Sperre die Reihe von Reaktionen.
Gefühle niemals, dass deine Community alle ihre Benutzer um jeden Preis behalten muss.
Ich habe gerade den Thread besucht, in dem sich diese Situation entwickelt hat.
Zusammenfassung:
- Ich habe eine lange Anfrage gepostet, viele Fragen, die für jeden, der interessiert war, zum Nachdenken anregten, ich suchte keine bestimmte einzelne Antwort.
- Diese wurde markiert und dann wegen Inaktivität automatisch geschlossen, nachdem eine einzige lange und gut durchdachte Antwort gegeben wurde, die Art, die ich mir erhofft hatte.
- Ich habe im allgemeinen Bereich “Über dieses Forum” danach gefragt.
- Diese Anfrage wurde markiert/versteckt.
- Jemand anderes hat eine Antwort gepostet, ich glaube, um gegen die Zensur zu protestieren.
- Diese Notiz wurde markiert/versteckt.
Ich habe diese Art von Dingen schon oft gesehen, in den letzten Jahren sogar noch mehr. Ich habe aufgehört, StackOverflow zu benutzen, teilweise wegen dieses krassen Missbrauchs durch Mods dort - Inhalte so zu verändern, dass sie etwas anderes sind, und sie dann als OT zu markieren.
Es ist interessant, das live mitzuerleben - aber wir benutzen Werkzeuge, die dies ohne bewusste Erkenntnis geschehen lassen. Das ist alles, was ich hier anspreche.
Für meine unmittelbaren Zwecke werde ich sehen, ob ich einen Weg finde, den Website-Betreiber dieser großen Discourse-Installation zu kontaktieren, aber das allein ist schon eine Herausforderung. Ich habe nichts dagegen, dass wir ohne “Admin kontaktieren”-Button Schutz erhalten.
Ich vermute, sie schätzen das auch.
Ich sehe, dass andere Mitglieder Ihnen bereits tolle Vorschläge gemacht haben! ![]()
Es scheint, dass Sie nicht der Administrator/Moderator der betreffenden Website sind? [1] Ich werde jedoch einige Ideen posten, die jeder lesen kann.
Es ist nicht gesund für die Diskussion, wenn Leute Flaggen als „Waffe“ für persönliche Streitigkeiten/Meinungsverschiedenheiten verwenden. Benutzer sollten Ideen kritisieren, nicht Leute.
Etwas, das noch nicht erwähnt wurde, ist die Änderung der Empfindlichkeit von Flaggen zum Ausblenden von Beiträgen, sodass mehr Flaggen benötigt werden, um einen Schwellenwert zu erreichen und ausgeblendet zu werden. Dies behebt jedoch nicht die Tatsache, dass der Beitrag immer noch zu Unrecht von anderen markiert werden kann.
Wirklich, die besten Optionen sind die, die bereits vorgeschlagen wurden, nämlich direkt Kontakt aufzunehmen und eine offizielle Warnung auszusprechen, in der erklärt wird, dass sie bei fortgesetztem Verhalten in ihrer Vertrauensstufe gesperrt oder suspendiert werden.
Vielleicht können Sie dies als Beispiel verwenden?
Andere Optionen sind, max flags per day in Ihren Website-Einstellungen zu reduzieren.
Ich bin mir nicht ganz sicher, was Sie hier mit „Berufung gegen die Community TL1-Moderation“ meinen.
Ich wiederhole das ![]()
Selbst wenn der Benutzer lange Zeit aktiv war, sollte er nicht da sein, wenn er anderen schadet. Ihre Community, Ihre Regeln.
Bitte korrigieren Sie mich, wenn ich falsch liege ↩︎
War es Zensur? Es klingt eher nach Moderation. Ich denke, das ist ein wichtiger Unterschied.
Dieser Tooltip ist auf Subreddits vorhanden, da niemand auf die geschriebene Regel achtet, weil die Regel mit der Funktionsweise der Benutzeroberfläche und der Software kollidiert.
Ich schlage vor, dass Sie stattdessen eine private Nachricht an die Moderatoren senden, anstatt das nächste Mal öffentlich zu posten, es sei denn, die Forenkultur ermutigt ausdrücklich zur öffentlichen Diskussion von Moderationsaktionen (auch wenn dies keine tatsächliche menschliche Moderationsaktion war, fällt der Vorschlag einer menschlichen Moderationsaktion unter dieselben Regeln).
Sie können entweder eine neue private Nachricht an @moderators senden oder Ihren eigenen Beitrag mit „Etwas anderes“ markieren.
Ist es möglich, dass die Konvention der Website darin besteht, eine einzelne Frage in einem Thema zu posten? Oder eine andere Norm, die Ihr Beitrag nicht erfüllte?
Stimme zu - jede öffentliche Diskussion über Moderation ist die Art von Sache, die verboten sein könnte. Es ist eine Herausforderung, damit umzugehen, es könnte eine unerwünschte Diskussion darüber auslösen, wie das Forum geführt wird. Einige Foren sind so eingerichtet, dass alles durch Konsens der Gemeinschaft erledigt wird, und einige Foren sind so eingerichtet, dass sie von einer Einzelperson oder einem Komitee geführt werden. In jedem Fall ist Moderation harte Arbeit, schwierige Entscheidungen werden getroffen, und eine öffentliche Anfechtung kann als Bedrohung für Frieden und Ruhe angesehen werden.
Zustimmung, während Moderation tatsächlich Zensur ist. Es ist Zensur mit einem echten Zweck, die Dinge organisiert zu halten und hoffentlich dadurch eine positive Umgebung für das Forum zu schaffen:d gegebenen Zweck.
Op, wenn Ihr Beitrag durch Markierung ausgeblendet wird, müssen Sie warten oder sich privat an einen Mod wenden, um Klarheit zu bitten. Es ist möglich, dass Ihr Thema/Ihre Themen nicht den Regeln/dem Konzept des Forums entsprachen. Moderatoren haben die Markierung möglicherweise noch nicht überprüft.
In jedem Fall ist es jedoch eine gute Idee, dem Mod-Team eine PM/DM zu senden, um zu verstehen, warum es markiert wurde. Es könnte sein, dass eine Regel vielleicht nicht klar genug ist.
Vor nicht allzu langer Zeit wurde ein Beitrag von mir markiert. Ein Mod hat sich gemeldet und einige Fragen gestellt. Sie waren mit meinen Antworten zufrieden, warum ich den Kommentar gepostet hatte. Und stimmten zu, dass mein Kommentar infolgedessen nicht vom Thema abwich. Manchmal ist etwas, das für den Autor klar ist, für andere Leser nicht klar.
Nein, das ist es nicht. Wörter haben ihre Bedeutung und wir sollten uns an diese Bedeutung halten. Zensur geschieht auf Regierungsebene, ein Staat gegen die Öffentlichkeit.
Und Foren usw. gehören auch nicht zur freien Meinungsäußerung.
Zensur ist Teil der Moderation. Sonst wäre es ein Freifahrtschein.
Moderation ist teilweise Zensur und teilweise Vermittler und ein paar andere Dinge.
Nur weil ein Beitrag aus guten und verständlichen Gründen aufgrund von Regeln entfernt wurde. Es ist immer noch Zensur. Zensur kann gut oder schlecht oder sogar beides sein.
Wenn ich schreibe „Es gibt mehr Geschlechter als biologische Geschlechter“, und eine Regierung lässt es löschen, ist das Zensur. Wenn es hier gelöscht wird, weil diese Aussage themenfremd und/oder gegen Regeln verstößt, ist es Moderation. Großer Unterschied.
Sie sind dieselben. In beiden Fällen wird der Beitrag entfernt. Beides ist Zensur.
In Ihrem ersten Beispiel verstößt es gegen die Regeln der Regierung, und im zweiten wurden sie von einer unabhängigen Gruppe/einem Ort festgelegt.
Das Ergebnis ist dasselbe. Es wird gelöscht, weil es gegen die Regeln verstößt.
Es spielt keine Rolle, ob eine Regierung ein Buch verbietet oder die Gemeinschaft ein Buch verbietet. Das Ergebnis ist, dass das betreffende Buch entfernt wird.
- Die Grenze zwischen Zensur und Inhaltsmoderation kann verschwimmen, insbesondere wenn Plattformen erhebliche Macht über die Online-Kommunikation ausüben.
- Die Abwägung von Bedenken hinsichtlich der freien Meinungsäußerung mit der Notwendigkeit der Inhaltsmoderation zur Bekämpfung schädlicher Inhalte ist eine komplexe und fortlaufende Herausforderung.
Wenn also ein Unternehmen ein Forum einrichtet und alle offen negativen Bewertungen seines Produkts oder seiner Dienstleistung löscht. Ist das Inhaltsmoderation oder Zensur?
Wir suchen danach, Dinge neu zu definieren, damit wir versuchen können, sie besser aussehen zu lassen. Einfache Wahrheit Zensur) Inhaltsmoderation ist gut oder schlecht, abhängig von einer Vielzahl von Faktoren. Beide dienen oberflächlich betrachtet dem Schutz und der Förderung einer positiven sozialen Ordnung.
Dieser Artikel erklärt den Unterschied gut.
So sehr ich leidenschaftliche Diskussionen liebe, versuchen wir, uns für unsere aktuellen Zwecke darauf zu konzentrieren.
Bitte beachten Sie noch einmal, dass wir über Community-Downvotes sprechen, nicht über Moderatorenentscheidungen, die völlig anders sind.
Als langjähriger Profi und Community-Manager bin ich mir der Richtlinien der Website für Fokus, OT-Diskussionen, Sprache usw. sehr bewusst. Lassen wir das für den Moment beiseite.
Für das jüngste Beispiel gab es kein Problem mit dem Inhalt. Nach meinem besten Verständnis, wie von jemandem bemerkt, der es gemeldet hat, war es die Ungeduld der Leser mit einer langen, tiefgehenden Diskussion (wie dieser?
), die zu Meldungen führte.
Um fair zu sein, fragte @Ed_S nach Nichteinhaltung von Normen. Zwar können Gemeinschaften eine Kultur mit ungeschriebenen Vorlieben und Erwartungen haben. In einer Gemeinschaft mit vielen Tausenden von Mitgliedern, Dutzenden von Kategorien und vielen Tags für jede einzelne gibt es keinen Raum für Gruppendiskussionen über solche Dinge, um genügend Konsens für ein solches Verständnis zu bilden.
Ich habe es vorher nicht bemerkt, aber ich sehe, dass mein Konto wegen der Überprüfung des Inhalts und der Meldungen durch den Administrator ausgesetzt wurde. Auf eine gewisse Weise ist das gut, der Discourse-Fluss ist im Gange. Leider wird es für eine Website mit vielen Tausenden von Benutzern eine Weile dauern, bis die Administratoren dies bearbeiten - und wie einige von uns wissen, wird dies vielleicht nie geschehen.
OK, ich werde einen Weg finden, eskalieren/fragen, falls erforderlich.
Was jedoch die Vorschläge hier betrifft, einen Moderator/Administrator per PM zu kontaktieren: Wir wissen auch, dass dies allein Konsequenzen haben kann. Wir wissen oft nicht, ob die Admin-Richtlinie lautet “Störe mich nicht”, es sei denn, wir versuchen es. Es gibt manchmal Hinweise wie “Bitte stören Sie die Administratoren nicht per PM”, die, wenn sie nicht beachtet werden, nur ein schlechtes Bild auf die Person werfen, die eine Lösung sucht.
Ich hoffe, ich habe alle Punkte geklärt, aber ich komme gerne auf alles zurück, was ich übersehen habe.
Mein Punkt bei dieser Übung ist es, eine Situation zu beleuchten, die uns seit der Entstehung von Online-Foren begleitet (für mich reicht das bis in die späten 1970er Jahre zurück). Es ist eine Lücke in diesem Werkzeug, in die wir alle geraten können, unter ähnlichen Umständen, sei es als Administrator, Moderator, kommentierendes Mitglied oder hilfreiches Community-Mitglied, das Inhalte meldet, die wir für unerwünscht halten.
Ich bitte nicht um spezifische Änderungen, sondern beleuchte die Situation und frage mich, ob jemand denkt, dass dies eine Initiative(n) wert ist, um einige der hier beschriebenen möglichen unerwünschten Ergebnisse zu beheben.
Und ich hoffe besonders, dass dies anderen Administratoren wie mir helfen kann, zu erkennen, wie unsere Werkzeuge es diesen Situationen ermöglichen, sich zu manifestieren. Wir können unsere eigenen Discourse- (und andere) Foren mit besserer Überwachung von Benachrichtigungen (äh, Einschalten), Delegation, Dokumentation von Richtlinien und Präferenzen usw. verbessern.
Danke für Ihre Geduld und Zeit… (und bitte melden Sie das nicht!
)
Vielleicht ist eine Möglichkeit, diese Zwickmühle zu betrachten, eine Art Meta-Moderation. Wir erlauben Benutzern, Beiträge zu markieren, damit Moderatoren die Markierungen überprüfen können. Unweigerlich werden die Mods sehen, wie viele Markierungen es gibt, und vielleicht eine Vorstellung davon haben, wer die Markierer sind. Benutzer, die Markierungen übermäßig oder falsch verwenden, müssen erkannt werden, damit ihr Verhalten den Moderatoren zur Kenntnis gebracht werden kann.
Vielleicht könnte eine Art von Reputation, natürlich verborgen, gepflegt werden, die sich auf Folgendes bezieht:
- wie viele Markierungen ein Benutzer ausgibt
- wie viele verschiedene Konten Beiträge erstellen, die sie markieren
- ob ihre Markierungen akzeptiert oder abgelehnt werden
- ob ihre eigenen Beiträge markiert werden
Ein Benutzer mit schlechter Markierungs-Reputation benötigt irgendeine Art von Aufmerksamkeit, von der ein Teil vielleicht automatisiert werden könnte.
Das System bewertet den Flaggenden gemäß dem meines Wissens nach vereinbarten Flaggen-Prozentsatz.