Ein Forum, bei dem ich helfe, hat in den letzten Monaten eine Flut von Spam-Account-Registrierungen erlebt. Dies sind mit ziemlicher Sicherheit KI-Bots, da sie in der Lage zu sein scheinen, ein Registrierungsformular (im Grunde eine Kästchenauswahl), ein hCaptcha zu lösen und mit der Verifizierungs-E-Mail, sogar mit Benutzerprofilinformationen, umzugehen. Wir können normalerweise erraten, welche Registrierungen gefälscht sind, basierend auf einigen Faktoren (z. B. null Lesezeit für Artikel, einige subtile Dinge bei Namen/E-Mail-Adressen, offensichtlich gefälschte Benutzerinformationen), aber es ist nicht einfach (z. B. sind es oft legitime Gmail-Adressen). Dieser Prozess ist jedoch nicht nachhaltig – wir hatten manchmal 10 Fälschungen pro Tag, und es ist viel zu einfach, bei unserer begrenzten Kapazität, diese zu sortieren, Fehler zu machen.
Das Hinzufügen von Captchas hat die Anzahl der gefälschten Registrierungen verringert, aber wir haben immer noch einen großen Rückstand an Benutzern, die genehmigt werden müssen, was bedeutet, dass es oft ein oder zwei Wochen dauert, bis neue Benutzer beitreten können. Wir haben textbasierte Fragebögen für neue Benutzer in Betracht gezogen, aber die Realität ist, dass wir nicht die Kapazität haben, eine Reihe von Fragen zu lesen und zu erraten, ob sie KI-generiert sind oder nicht (und: dieses Problem wird nur schwieriger werden).
Eine Option ist, diese Benutzer einfach zuzulassen und sie dann zu markieren, wenn sie etwas offensichtlich Spam-mäßiges posten? Ich denke, wir zögern, die Tore dafür zu öffnen, da dies den Prozess einfach von einem Ort (Registrierung) an einen anderen (markierte Beiträge) verlagert und die Katze nicht mehr in die Tasche gesteckt werden kann: hundert latente KI-Benutzer, die alle über mehrere Monate hinweg langsam zu posten beginnen, könnten das Forum leicht komplett ruinieren.
Hat jemand Strategien, um damit umzugehen? Wir sind relativ klein, daher kann ich mir nicht vorstellen, dass wir die Einzigen sind, die das erleben…