Negli ultimi mesi, abbiamo purtroppo notato che le prestazioni di Akismet sono state piuttosto discontinue.
Il rilevamento dello spam basato sullâIA ti consente di controllare meglio come funziona la scansione dello spam nella tua community.
Abbiamo giĂ visto ottimi risultati su alcuni forum. Condividi qui la tua esperienza.
Per coloro che utilizzano lâauto-hosting o cercano in generale un modo âgratuitoâ per utilizzare questi strumenti, dai unâocchiata a OpenRouter. Ci sono parecchi LLM gratuiti lĂ fuori che possono fare un lavoro ragionevole nella scansione dello spam.
Riporto i risultati su meta durante il fine settimana:
@Falco ha modificato la nostra âistruzione personalizzataâ qui in:
I nuovi utenti che pubblicano riguardo alle criptovalute e linkano a QUALSIASI sito senza aggiungere informazioni importanti alla conversazione sono spammer.
Tratta i post ampiamente fuori tema come spam. PoichĂŠ stai analizzando i post da quello che è principalmente un forum di supporto per Discourse Forum Software, se un argomento non riguarda Discourse e argomenti correlati come altri software per forum, comunitĂ online, informatica e sviluppo software e non ha un collegamento chiaro al nostro argomento principale, è probabilmente spam. Ad esempio, un nuovo argomento che spiega i dettagli di unâauto nuova, un videogioco o qualsiasi argomento completamente non correlato a Discourse, come vaccini, geopolitica o vacanze al mare, è spam. Anche gli argomenti tecnici, su argomenti non correlati a Discourse, sono spam.
Abbiamo avuto zero spam persi negli ultimi 2 giorni, abbiamo invece intercettato:
Non posso abilitarlo su un account Business ospitato perchĂŠ, sebbene gli LLM predefiniti inclusi nella versione ospitata vengano visualizzati come âConfiguratiâ, non sono disponibili per la selezione nella scheda âSpamâ:
@awesomerobot e il team stanno lavorando per migliorare la chiarezza riguardo ai âmodelli linguistici di grandi dimensioni (LLM) pre-addestratiâ.
Abbiamo rilasciato funzionalitĂ sperimentali e stiamo âsbloccandoâ la possibilitĂ di utilizzare i nostri LLM interni quando si sceglie di partecipare a una funzionalitĂ sperimentale tramite il feed âNovitĂ â nellâarea amministrativa.
Capisco perfettamente, tuttavia, che questo sia fonte di confusione:
Dovrebbe essere chiaro che lâLLM è disponibile solo per le funzionalitĂ X, Y, Z nella pagina degli LLM.
Dovremmo invitarti a âpartecipareâ a un esperimento direttamente dalla pagina degli LLM.
Se vai al tuo feed NovitĂ (come cliente ospitato da CDCK) vedrai:
Almeno per me, la funzione âabilitazione rapidaâ per il rilevamento dello spam funziona in modo piuttosto confuso. Dopo un ricaricamento, appare sempre disabilitata, indipendentemente dal fatto che la funzione sia effettivamente abilitata o disabilitata. Devo controllare i log delle azioni dello staff per scoprirlo. Lâinterruttore dice sempre âfunzione abilitataâ dopo un ricaricamento, anche quando era giĂ abilitata e sarĂ effettivamente disabilitata.
@Moin abbiamo identificato il problema, era correlato alla denominazione delle impostazioni del sito. Lâabbiamo risolto e lo stiamo distribuendo a tutti i siti a breve
Per ora, se vai su NovitĂ e fai clic su Verifica aggiornamenti e quindi segui il processo, dovrebbe funzionare correttamente
Devo dire che questo rilevamento dello spam è piuttosto efficiente! Lâho testato sul mio forum con un utente di prova e ha nascosto il post quasi immediatamente.
Grazie, Team Discourse!
Ho riscontrato anchâio questo problema e non sono riuscito a trovare una soluzione cercando la frase chiave âNessun LLM disponibileâ, poichĂŠ in precedenza era presente solo in uno screenshot, non in forma testuale.
Quindi sto aggiungendo questa risposta per consentire ad altri che soffrono della stessa confusione di trovare piĂš facilmente la soluzione fornita qui:
Sto provando ad aggiungere istruzioni personalizzate sul nostro sito ospitato, che funzionano bene nei test, ma il salvataggio delle modifiche genera un errore âSi è verificato un errore: non è possibile utilizzare questo modello con questa funzionalitĂ â.