Strategien zur Filterung von Spam- / AI-Benutzerkonten?

Ein Forum, bei dem ich helfe, hat in den letzten Monaten eine Flut von Spam-Account-Registrierungen erlebt. Dies sind mit ziemlicher Sicherheit KI-Bots, da sie in der Lage zu sein scheinen, ein Registrierungsformular (im Grunde eine Kästchenauswahl), ein hCaptcha zu lösen und mit der Verifizierungs-E-Mail, sogar mit Benutzerprofilinformationen, umzugehen. Wir können normalerweise erraten, welche Registrierungen gefälscht sind, basierend auf einigen Faktoren (z. B. null Lesezeit für Artikel, einige subtile Dinge bei Namen/E-Mail-Adressen, offensichtlich gefälschte Benutzerinformationen), aber es ist nicht einfach (z. B. sind es oft legitime Gmail-Adressen). Dieser Prozess ist jedoch nicht nachhaltig – wir hatten manchmal 10 Fälschungen pro Tag, und es ist viel zu einfach, bei unserer begrenzten Kapazität, diese zu sortieren, Fehler zu machen.

Das Hinzufügen von Captchas hat die Anzahl der gefälschten Registrierungen verringert, aber wir haben immer noch einen großen Rückstand an Benutzern, die genehmigt werden müssen, was bedeutet, dass es oft ein oder zwei Wochen dauert, bis neue Benutzer beitreten können. Wir haben textbasierte Fragebögen für neue Benutzer in Betracht gezogen, aber die Realität ist, dass wir nicht die Kapazität haben, eine Reihe von Fragen zu lesen und zu erraten, ob sie KI-generiert sind oder nicht (und: dieses Problem wird nur schwieriger werden).

Eine Option ist, diese Benutzer einfach zuzulassen und sie dann zu markieren, wenn sie etwas offensichtlich Spam-mäßiges posten? Ich denke, wir zögern, die Tore dafür zu öffnen, da dies den Prozess einfach von einem Ort (Registrierung) an einen anderen (markierte Beiträge) verlagert und die Katze nicht mehr in die Tasche gesteckt werden kann: hundert latente KI-Benutzer, die alle über mehrere Monate hinweg langsam zu posten beginnen, könnten das Forum leicht komplett ruinieren.

Hat jemand Strategien, um damit umzugehen? Wir sind relativ klein, daher kann ich mir nicht vorstellen, dass wir die Einzigen sind, die das erleben…

4 „Gefällt mir“

Ich habe täglich zwischen 5 und 10 Spam-Konten in meinem größten Forum.

Ich benutze Folgendes, um zu helfen:

Ich habe dies vor ein paar Tagen installiert, und es ist außerordentlich wirksam:

Es schaltet automatisch stumm und erstellt keine überprüfbaren Elemente.

Das Anpassen Ihrer Spam-Einstellungen könnte ebenfalls helfen: /admin/site_settings/category/spam

7 „Gefällt mir“

Vielleicht Feuer mit Feuer bekämpfen und eine KI-Spam-Erkennungsoption ausprobieren? Discourse AI - Spam detection

7 „Gefällt mir“

Bezüglich KI-Benutzerkonten, können Sie näher erläutern, welchen „Schaden“ diese verursachen, wenn die Benutzer nie etwas posten?

Wir haben vor einem Monat eine Änderung vorgenommen, bei der wir Profile von Benutzern mit geringem Vertrauen und anonymen Benutzern unterdrücken, bis ein Benutzer tatsächlich etwas postet, sodass der Spam verborgen bleibt.

Ein interessanter Ansatz meiner Meinung nach, wenn das Volumen wirklich hoch ist, wäre, Konten nach 30 Tagen zu löschen, wenn sie nicht posten. Sie müssen sich zu erkennen geben, sonst werden sie gelöscht.

Die KI-Spamerkennung war bei allen Foren, in denen wir sie aktiviert haben, spektakulär erfolgreich. Sie können sie in Ihrem Forum mit einigen kostenlosen Modellen wie der kostenlosen Stufe von Gemini verwenden. Wir geben unseren Kunden Zugang zu unserem Modell, aber dies ist für Self-Hosters nicht allgemein verfügbar.

4 „Gefällt mir“

Ein kleines Problem, das ich bei Discourse sehe, ist die Ignoranz gegenüber der Möglichkeit, CloudFlare Turnstile nativ darin zu nutzen. Es ist ehrlich gesagt eine der besseren Lösungen für Captcha, die ich gefunden habe, und ich betreibe ein kostenpflichtiges Forenskript, das es verwendet und sehr wenig Spam erhält, auch wenn ich viele neue Benutzeranmeldungen habe. Die meisten Junk-Anmeldungen werden von Turnstile abgefangen. Ich sehe wirklich nicht, warum Discourse nach all dieser Zeit die angebotenen Lösungen noch nicht in den Kern integriert hat.

Als wir überflutet wurden, übertrafen die KI-Konten die echten neuen Benutzerkonten um 10 zu 1, was einige Verwaltungsaufgaben für Foren sehr unpraktisch machte. Es gab eine Meta-Angst seitens der Moderatoren, dass ein Forum, in dem ein großer Prozentsatz oder die Mehrheit der Benutzer KI/Spambots sind, das Potenzial für echten zukünftigen Schaden haben könnte, selbst wenn sie nur im Moment lauern. Zum Beispiel, wenn in einem Jahr Hunderte von gefälschten Benutzern alle plausible, aber nutzlose Beiträge verfassen würden, stellten wir uns vor, dass dies unsere Fähigkeit, Schritt zu halten, leicht überfordern und das gesamte Forum ziemlich nutzlos machen könnte :slight_smile:

Es ist jetzt etwas besser mit neuen Beitrittswilligen, aber ich denke, es ist jedermanns Präferenz, dieses Lurker-Problem zu vermeiden, wenn wir es vermeiden können. Unser Forum wurde bereits aggressiv für KI-Training gescrapt (es ist ein Nischenbereich, sodass es zumindest in älteren GPT-Versionen möglich war, GPT dazu zu bringen, bei richtiger Fragestellung fast direkte Zitate aus Forumsposts zu wiederholen), daher ist jeder ein wenig verärgert darüber.