Automatische Sperrfunktion

Hallo,

Einige Phrasen oder Wörter sind so unangemessen, dass ihre Verwendung eine automatische Sperrung aus unserer Community rechtfertigen würde, ohne dass eine Überprüfung erforderlich ist.

Daher schlage ich eine zusätzliche Art von beobachteter Wortliste vor, die zur automatischen Sperrung der Person führt, die sie gepostet hat.

Als Ergänzung könnte dies eine Benachrichtigung für Moderatoren generieren, falls ein Fehler vorliegt oder eine Überprüfung erforderlich ist.

4 „Gefällt mir“

Aus reiner Neugier, wie oft tritt diese Situation in Ihrem Forum auf?

4 „Gefällt mir“

Hallo, tolle Frage – absolut berechtigt. Nein, nicht sehr oft. Ich habe letzte Woche eine sehr feindselige E-Mail erhalten, und das hat mich über das Thema nachdenken lassen – wenn jemand die Community stören wollte, was gäbe es noch für zusätzliche Möglichkeiten, es ihnen schwer zu machen? Und dieses Problem scheint eines zu sein, das vielleicht für jeden Community Manager relevant ist.

3 „Gefällt mir“

Ohne darüber zu sprechen, wie oft das Problem auftritt, gibt es meiner Meinung nach eine Tatsache: Watched Words wird gegen ein solches Verhalten nicht funktionieren. Wenn jemand ein beleidigendes Wort posten möchte, wird er einen Weg finden, dies zu tun.

Als Administrator einiger Discourse-Foren würde ich diese manuell bearbeiten.

Vielleicht werfen Sie einen Blick auf Discourse Fingerprint - Browser Fingerprinting Plugin, wenn Sie glauben, dass problematische Benutzer aggressiv genug sein könnten, um mehrere Konten zu erstellen, um diesen Zweck zu erreichen.

Aber jetzt spreche ich eher, als wäre es ein #support- oder #community-Thema:smile:

1 „Gefällt mir“

Stimme Canapin zu


Ich würde einfach das Wort „Stille“ verwenden und wenn Sie es wirklich wollten, könnten Sie die API verwenden. Überprüfen Sie alle neuen Beiträge mit dem Endpunkt /posts.json und prüfen Sie, ob sie ein Wort enthalten, und sperren Sie sie dann mit der API.

1 „Gefällt mir“

Ich habe Silence nicht erwähnt, was anfangs eine gute Option schien, wegen „Erste Beiträge von Benutzern, die diese Wörter enthalten, bedürfen der Genehmigung durch das Personal“ (Hervorhebung von mir).

Was die API betrifft, habe ich darüber nachgedacht (ich habe etwas Ähnliches gemacht: Automatically delete users flagged by system?), aber sie auch nicht erwähnt, da sie wirklich weit hergeholt war, ausgehend von einem #feature-Thema. :slight_smile:

Das gesagt, ist ein automatischer Bann immer eine gefährliche Funktion. Ich bezweifle stark, dass so etwas offiziell zu Discourse hinzugefügt würde.

1 „Gefällt mir“

Das wäre sehr nützlich, um Spammer zu bekämpfen. Der einzig effektive Weg ist, sicherzustellen, dass es für Administratoren/Moderatoren einfacher ist, deren Beiträge/Konten zu entfernen, als für sie, neue Konten zu erstellen/Beiträge zu posten. Derzeit gibt es nur minimale Massenverbotsoptionen für Moderatoren, Massenverbote bedeuten das einfache Sperren/Löschen mehrerer Konten. Es gibt einige IP-basierte Massenoptionen, aber diese sind gegen moderne Spammer nicht effektiv, da IP praktisch keine Rolle mehr spielt.

Mit den aktuellen Beobachtungswörtern ist es möglich, den ersten Beitrag eines Benutzers automatisch stummzuschalten, wenn er ein bestimmtes Schlüsselwort enthält. Aber wenn zum Beispiel der böswillige Akteur viele Konten erstellt hat und seinen ersten Beitrag bereits geleistet hat, kann er weiter posten und die einzige Option für einen Moderator ist, manuell jeden einzelnen Beitrag oder jedes Profil zu besuchen, um sie zu sperren/löschen.

Mit einem automatischen Bann könnten wir sie zumindest in unsere Fallen locken und das Leben einfacher machen. Derzeit können sie, wenn ich ein Beobachtungswort hinzufüge, das automatisch markiert, blockiert oder zensiert, um die zweiten Beiträge von Spammern anzuzielen, einfach den Text ändern, den sie posten, und ihre Konten bleiben unversehrt.

Ein echtes und häufig auftretendes Problem: Jemand hat letztes Wochenende über 10.000 Konten erstellt, und es ist unmöglich, die Wörter im Voraus zu kennen, um sie stummzuschalten, und dann ist es zu spät. Der einzige Weg für einen Moderator, einen laufenden Spam-Angriff zu bereinigen, nachdem der Spammer bereits viele Konten mit ersten Beiträgen erstellt hat, ist sehr ineffizient.

Ein automatischer Bann bei bestimmten Schlüsselwörtern würde sehr helfen, als ein Werkzeug, das in bestimmten Fällen verwendet werden könnte (sie können dies mit mehreren Methoden umgehen, aber zumindest ist es für sie etwas schwieriger und es deckt einige Fälle ab). Es ist nicht so gefährlich, da Benutzer einfach entbannt werden können.

Nur meine 2 Cent, danke.