Et voici un exemple de ces mêmes spammeurs qui se font prendre ici : https://meta.discourse.org/t/full-list-of-quickbooks-desktop-support-contact-numbers-a-complete-call-center-in-the-usa/380776 (c’est déjà masqué).
Excellent travail sur cette fonctionnalité. C’est exactement comme ça que j’aime voir l’IA utilisée.
Petite question : lorsqu’un nouvel utilisateur TL0 soumet une réponse ou un sujet, y a-t-il un délai avant que le contenu ne soit analysé ?
Je vois un court délai dans le testeur intégré (capture d’écran ci-dessous), mais lorsque je poste depuis un compte de test, il n’y a pas de pause similaire. L’analyse en direct est-elle asynchrone après la publication, le message n’étant masqué que s’il enfreint une règle ? (contexte : j’utilise l’API OpenAI ChatGPT 5.)
Pour ce que ça vaut, AI > Spam & Stats s’incrémente comme prévu avec le compte de test, donc le message EST analysé ; il n’introduit simplement pas le même délai que le bouton Test.
Ok, cela fonctionne plutôt bien, mais que se passe-t-il lorsqu’il signale des dizaines de sujets/utilisateurs ? Je ne vois aucun moyen de bannir/supprimer en masse ces utilisateurs/messages.
Merci pour ce fil de discussion détaillé. Nous avons activé la détection de spam Discourse AI sur notre instance, et l’une des choses que nous constatons est le silence automatique par défaut lorsque le premier message publié par un compte est signalé.
Je comprends que c’est pour réduire au silence les spammeurs ponctuels ; cependant, cela pose des problèmes lorsque l’approbation/l’acceptation d’un signalement signifie que l’utilisateur restera réduit au silence dans les cas où nous souhaitons approuver le signalement mais ne pas réduire l’utilisateur au silence. Il serait bon d’avoir :
un bouton « accepter et maintenir le silence », et
un bouton séparé « accepter et lever le silence ».
C’est délicat, nous ne voulons pas paralyser les gens avec trop de choix, mais je comprends tout à fait qu’à grande échelle cela puisse être un problème.
Je vais vérifier auprès de l’équipe d’expérience utilisateur (XP) de l’entreprise, peut-être existe-t-il une petite personnalisation que nous pouvons apporter à votre forum.
J’ai publié un sujet de spam de test dans mon environnement de développement local, mais il n’est pas entré automatiquement dans la file d’attente de modération.
Le résultat de la détection par IA est bien un message de spam.
Et il remplit également les autres conditions pour entrer dans la file d’attente de modération.
Niveau de confiance de l’utilisateur :
Scanner les messages des utilisateurs avec un niveau de confiance de 1 ou inférieur.
Exclure les messages des utilisateurs avec un niveau de confiance plus élevé.
Type de message :
Messages publics (hors messages privés).
Inclure les messages de réponse et les messages de premier sujet, en fonction d’autres seuils.
Modification du message :
Scanner les messages ayant subi des modifications importantes (par exemple, un changement de plus de 10 caractères).
Imposer un délai de 10 minutes entre les analyses du même message.
Fréquence des messages :
Donner la priorité aux nouveaux utilisateurs qui ont publié un total de moins de 4 messages dans des sujets publics.
Exclure les messages des utilisateurs qui dépassent ce seuil.
Cependant, le résultat final est qu’il n’est pas entré dans la file d’attente de modération.
Oui, l’outil de test a clairement renvoyé que c’était du spam, mais lorsque j’ai publié exactement le même contenu, il n’est pas entré dans la file d’attente de modération.
Qui a posté ceci ? Avez-vous utilisé un nouvel utilisateur que vous avez créé pour des tests ou avez-vous par exemple utilisé un compte avec des permissions de modérateur ?
Voici l’ensemble d’instructions personnalisées que j’utilise pour la détection de spam. Il est plus détaillé que la version standard, il utilisera donc plus de jetons. Quels ensembles d’instructions client d’autres personnes utilisent-ils pour la détection de spam ?
Ensemble d’instructions concises pour la détection de spam
Vous êtes un système de détection de spam examinant des publications de forum.
Votre tâche consiste à déterminer si une publication est principalement destinée à promouvoir, tromper, manipuler les classements de recherche, distribuer des liens malveillants ou perturber la discussion — plutôt que de participer réellement à la communauté.
Évaluez :
Contenu de la publication
Type de publication (RÉPONSE ou NOUVEAU SUJET)
Contexte du fil (pour les réponses)
Informations sur le site
Classer comme spam si la publication :
Fait la promotion de produits, services ou sites externes sans engagement significatif
Contient des liens suspects, sans rapport ou promotionnels multiples
Utilise un bourrage de mots-clés de style SEO ou des modèles répétitifs
Semble automatisée, standardisée ou générée par un bot
Est sans rapport avec le sujet du forum
Pour les publications RÉPONSE : ignore le fil et injecte du contenu sans rapport
Les indicateurs de spam forts incluent :
Liens d’affiliation/de parrainage
Langage de type « Achetez maintenant », réductions ou soldes
Informations de contact sans rapport avec la discussion
Éloge générique + lien
Structure de copier-coller
Texte absurde ou généré par IA
NE PAS classer comme spam uniquement parce que :
L’utilisateur est nouveau
L’anglais est imparfait
La publication est courte
Le ton est enthousiaste
Un produit ou un fournisseur pertinent est mentionné dans le contexte
Les signaux légitimes incluent :
Références spécifiques au fil
Discussion technique pertinente au sujet
Questions sincères
Expérience personnelle liée au sujet du forum
Règle de décision
Si l’intention principale semble promotionnelle, malveillante ou disruptive → spam = vrai.
Si la publication participe de manière significative à la discussion → spam = faux.
En cas de doute mais avec plusieurs signaux d’alerte présents, privilégiez la sécurité de la communauté.
Format de sortie
Retournez uniquement du JSON valide :
{“spam”: true ou false, “reason”: “Brève explication (1–2 phrases).”}
Il devrait y avoir un rapport sur la page Admin->Plugin->AI->SPAM qui affiche les détails de la boîte de résumé. La boîte de résumé indique le nombre de publications analysées, le spam détecté, ainsi que les faux positifs et négatifs.
Le rapport détaillé existe-t-il quelque part que je n’ai pas trouvé ?
Existe-t-il une requête Data Explorer qui fournit les détails de niveau inférieur ?