Hallo zusammen,
ich suche ein wenig Rat und Anleitung von denen, die Community-Websites schon länger überwachen, moderieren oder verwalten als ich (ein paar Jahre).
Unsere Community ist wunderbar vielfältig. Sie hat Menschen aus aller Welt angezogen – mit unterschiedlichen Kulturen, Sprachen, Glaubensvorstellungen, Geschlechtern und Altersgruppen. Setzt hier einfach jedes geschützte Merkmal ein, und ich bin sicher, wir haben eine Vertretung dafür. Das ist großartig!
Um die Dinge sauber zu halten, habe ich vor einiger Zeit (gut über einem Jahr) eine Liste von beobachteten Wörtern hinzugefügt. Dabei handelt es sich typischerweise um Schimpfwörter – schwer zu beschreiben, ohne sie hier zu verwenden –, wobei einige eher der harten Sorte angehören, während andere für manche vielleicht alltäglichere Wörter sind. Zusätzlich habe ich einige Begriffe hinzugefügt, die als rassistische oder homophobe Beleidigungen oder Schimpfwörter verwendet werden könnten.
Es fiel mir schwer zu entscheiden, welche Schimpfwörter hinzugefügt werden sollten und welche nicht. Es ist schwierig, die Toleranzgrenzen oder die Empfindlichkeiten anderer Menschen einzuschätzen, ohne einfach abzuwarten, bis jemand etwas sagt.
Heute Abend wurde mir klar, dass Discourse automatisierte, vorformulierte Nachrichten versendet, wenn das System ein Thema aufgrund der Liste der beobachteten Wörter als unangemessen markiert. In einem Beispiel hatte jemand eine Liste von Begriffen im Zusammenhang mit Sexualität erstellt. Einer dieser Begriffe wurde aufgrund der Liste der beobachteten Wörter markiert, und die Nachricht wurde versendet. Als ich die gesendete Nachricht sah, stand darin, dass mehrere Personen in der Community das Thema als unangemessen gemeldet hatten, obwohl es tatsächlich nur daran lag, dass eines der Wörter auf der Liste ausgelöst wurde.
Selbstverständlich wirkte die Nachricht für den verwendeten Begriff etwas übertrieben. Ich weiß zwar, dass ich die Vorlagen ändern kann, aber ich wollte fragen: Gibt es Situationen, in denen diese Nachrichten tatsächlich basierend auf der Anzahl der Meldungen versendet werden, oder sind sie nur stark formuliert, um eher als Abschreckung zu dienen?
Ich stehe nun vor der Entscheidung, ob ich den Inhalt der Nachricht ändern oder einige Wörter aus der Liste der beobachteten Wörter entfernen soll. Das Problem ist, dass einige dieser Wörter im Gespräch legitim verwendet werden könnten. Ich habe sie hinzugefügt, damit ein Moderator den Begriff im Kontext überprüfen und das Thema gegebenenfalls bearbeiten kann, nachdem er der Meldung zugestimmt oder sie abgelehnt hat. Zu diesem Zeitpunkt war mir nicht bewusst, dass den Nutzern Nachrichten gesendet wurden, daher erschien mir das als der richtige Weg. Zwar entsteht dadurch etwas mehr Verwaltungsaufwand, aber das passiert nicht allzu oft, da wir im Allgemeinen eine sehr höfliche Community haben ![]()
Unser aktueller Prozess läuft etwa so ab:
- Geprüftes Thema prüfen
- Schimpfwort mit Sternchen maskieren
- Der Meldung zustimmen, aber den Beitrag behalten
Dies ermöglicht es uns, die Anzahl der Meldungen pro Benutzer zu sehen (z. B. wiederholte Täter), erlaubt aber auch einen sanfteren Ansatz zur Lösung des Problems. Sollten wir sehen, dass wiederholte Täter viele gemeldete Themen haben, könnten wir jeden Einzelfall individuell und persönlich entsprechend behandeln.
Mir ist bewusst, dass es in den Einstellungen die Option zensieren gibt, bei der ich ebenfalls Wörter hinzufügen kann. Ich habe dies noch nicht ausprobiert, aber ich gehe davon aus, dass wir für diese Wörter keine Benachrichtigung oder Meldung erhalten würden. Sie würden einfach automatisch durch Sternchen ersetzt, und es gäbe nichts auf dem Benutzerprofil, das auf Meldungen hinweist?
Wie bereits erwähnt, haben wir eine fantastische Community. Meistens stammen Schimpfwörter aus der Frustration der Nutzer, wenn Dinge während des Lernens neuer Themen nicht so laufen, wie sie es möchten. Ihr Beitrag gibt ihnen dann die Möglichkeit, Ventil zu finden. Ich bin wahrscheinlich auch ein wenig beschützend gegenüber unserem jüngeren Publikum. Ich könnte die Anzahl der Jugendlichen, die wir haben, wahrscheinlich an zwei Händen abzählen, aber ich weiß, dass es welche gibt, und ich möchte, dass die Dinge für sie nett bleiben – wobei ich voll und ganz anerkenne, dass sie wahrscheinlich viele mehr Wörter (und vielleicht noch schlimmere!) kennen als ich ![]()
Ich frage mich also wohl ein paar Dinge oben. Entschuldigung, falls ich etwas abgeschweift bin. Kann jemand Vorschläge für einen Prozess unterbreiten, der den Umgang mit Schimpfwörtern, rassistischen oder homophoben Beleidigungen besser verhindert oder verwaltet als der oben beschriebene?
Ich brauche fast eine weitere Option: eine für Wörter, die im täglichen Gespräch verwendet werden könnten, bei denen aber jemand einen Blick darauf werfen muss, um sicherzustellen, dass der Kontext in Ordnung ist – ohne jedoch eine Art Nachricht an den Benutzer zu senden, bis eine Maßnahme ergriffen wurde, bei der der Kontext als schlecht eingestuft wurde.
Ich habe versucht, oben vorsichtig vorzugehen, ohne tatsächlich eines der Wörter zu verwenden, auf die ich in unserer Liste der beobachteten Wörter Bezug nehme. Entschuldigung also für das Fehlen von Beispielen oder Szenarien.
Ich sollte noch hinzufügen, dass ich persönlich viele dieser Dinge nicht als beleidigend empfinde. Ich versuche nur, bedacht zu sein, dass wir alle unterschiedlich sind und dass das, was eine Person sagt, selbst wenn keine böswillige Absicht dahintersteckt, jemand anderen beleidigen kann.
Alle Gedanken, Ideen oder Vorschläge sind willkommen – vielen Dank im Voraus ![]()
