Non so se esista. Esiste un’impostazione in cui gli utenti TL_0 possono essere limitati a pubblicare o rispondere solo in una categoria o in un gruppo di categorie?
Mi aspetto che la risposta sia quella di passare attraverso tutte le mie Categorie e, sotto Sicurezza, eliminare il gruppo “tutti” e sostituirlo con TL_1 può pubblicare e rispondere e vedere e TL_0 può solo “vedere”. Sarebbe bello poter fare questo al contrario: un interruttore di amministrazione “Limita TL_0 a pubblicare in [queste Categorie]; Limita TL_0 a rispondere in [queste Categorie]” che sovrascriva la designazione “tutti”.
Non è un grosso problema, ma fammi sapere se esiste un modo efficiente per farlo senza scorrere tutte le mie categorie esistenti.
TL;DR:
La mia idea è creare una categoria “Nuovi Utenti - Il Tuo Primo Post Va Qui” in modo che qualsiasi account spam debba mettere il suo report di libri AI o il tentativo di link nascosto a un sito di Viagra in un unico posto. Questa categoria conterrebbe il nostro argomento in corso “Presentati”, quindi idealmente i nuovi utenti effettivi potrebbero “fare il check-in” prima di poter pubblicare altrove sul sito - potrei impostare il requisito TL_1 a una sola risposta o post in quella che è fondamentalmente una categoria “sandbox”.
Abbiamo avuto molte iscrizioni “spazzatura” che di solito sono spammer, ma a volte creano solo un account e poi non tornano più. Discourse è fantastico però e possiamo impostarlo per ripulire gli utenti senza post dopo un certo periodo di tempo.
Riceviamo anche molte iscrizioni che utilizzano l’IA per pubblicare. Questi sono probabilmente spammer la maggior parte delle volte che cercano anche di costruire Fiducia, ma il nostro forum ha anche discussioni significative tra persone che programmano e sono interessate alle capacità dell’IA/LLM. Pertanto, riceviamo iscrizioni che utilizzano il forum come terreno di prova per “superare il Test di Turing” e alcuni che potrebbero semplicemente fare trolling. Abbiamo una regola secondo cui un account AI che cerca di ingannare le persone facendole credere che sia reale non è consentito poiché un’IA non può accettare il CoC e non può essere moderata.