Questa funzionalità fa ora parte di Discourse AI. Questo plugin è deprecato.
|||-|
| Riepilogo | Disorder aiuta i moderatori segnalando automaticamente contenuti potenzialmente tossici sul tuo forum Discourse.
| Link al Repository | https://github.com/xfalcox/disorder
| Guida all’Installazione | Come installare plugin in Discourse
Se stai utilizzando il nostro servizio di hosting ufficiale, contatta il nostro supporto per registrare il tuo interesse per questo plugin.
Tossicità
Come ha detto @hawk in Dealing with Toxicity in Online Communities, gestire la tossicità nella tua community è fondamentale.
Mentre Discourse viene fornito pronto all’uso con molti strumenti diversi per aiutare a gestire la tossicità nella tua community, siamo sempre alla ricerca di modi per migliorarla ulteriormente. In particolare, ho ricercato possibili applicazioni del Machine Learning e dell’IA nei forum online. Che ora è un plugin sperimentale, disponibile per tutte le community.
Il plugin
Disorder sfrutta l’Intelligenza Artificiale e il Machine Learning per aiutarti a moderare la tua community, rendendo più facile per il tuo team di moderazione essere al corrente di contenuti potenzialmente problematici e persino incoraggiare opzionalmente i tuoi utenti a rivedere post tossici prima di pubblicarli.
Questo è un primo passo nell’utilizzo di modelli ML self-hosted in Discourse, e sebbene sia un modello semplice, stabilisce un modello che può essere riutilizzato per applicare modelli più complessi in futuro.
Funzionalità
Segnalazione in background
Questa è la modalità operativa principale di Disorder, poiché è completamente trasparente per i tuoi utenti, che non saranno a conoscenza di alcuna modifica.
Ogni volta che viene creato un nuovo post (o messaggio di chat utilizzando Discourse Chat), verrà inserito in una coda di classificazione in modo asincrono. Nel caso in cui la classificazione risulti superiore a una soglia configurabile, il post/messaggio di chat verrà segnalato in modo che il tuo team di moderazione ne venga avvisato e possa prendere la decisione finale sulla segnalazione.
Intervento su nuovi post
Se pensi che la prevenzione sia la migliore medicina, potresti essere interessato a questa opzione più attiva.
Puoi abilitare una classificazione sincrona di qualsiasi nuovo post che, se al di sopra di una soglia di tossicità configurabile, attiverà un intervento nel flusso del nuovo post, chiedendo all’utente di rivedere e apportare modifiche al messaggio che potrebbe essere al di fuori dei limiti stabiliti dalle regole della tua community.
Questo accadrà solo una volta, e dopo aver chiuso la modale l’utente potrà postare normalmente.
Come funziona?
Questo plugin integra i modelli open source di Detoxify, utilizzando un modello di chiamata API remota per consentire agli amministratori di scalare correttamente il tasso di inferenza in base alle esigenze di ciascuna community.
Forniamo una semplice immagine che fornisce un’API HTTP sottile che Discourse chiamerà per eseguire la classificazione dei contenuti, che può essere eseguita sia sullo stesso server su cui esegui Discourse, sia su un server diverso.
Il plugin Discourse ascolta gli eventi di nuovi post / nuovi messaggi di chat e accoda un lavoro di classificazione nella coda in background. I risultati vengono memorizzati nel database in modo da poter estrarre report, e segnaliamo i contenuti utilizzando un utente bot separato in modo da poter monitorare l’accuratezza delle sue segnalazioni nel tempo.
Opzioni
Innanzitutto, il plugin funziona pronto all’uso, quindi non è necessario modificare subito alcuna impostazione. Tuttavia, se desideri modificare il comportamento del plugin, ci sono alcune opzioni che puoi utilizzare.
Forniamo 3 diversi modelli di classificazione tra cui puoi scegliere nelle opzioni del plugin:
- unbiased (predefinito): Un modello che cerca di ridurre il bias indesiderato del modello nella classificazione della tossicità
- multilingual: Un modello che può classificare italiano, francese, russo, portoghese, spagnolo e turco.
- original: Il modello più semplice.
Puoi anche regolare se il plugin:
- segnalerà automaticamente
- abiliterà l’intervento sincrono su post tossici con avviso (sperimentale)
- abiliterà l’intervento sincrono su post tossici (non raccomandato)
Tutto quanto sopra avviene solo quando il commento viene classificato al di sopra delle soglie per ciascun tipo di classificazione:
- tossicità
- grave_tossicità
- attacco_identità
- insulto
- minaccia
- esplicito_sessuale
Puoi regolare ciascuna delle soglie di classificazione per le azioni automatiche.
Servizio di Classificazione
Il plugin viene fornito preconfigurato e funzionante. Per questo, contatta un servizio gestito da Discourse (CDCK) per classificare i contenuti degli utenti. Quel servizio API di classificazione è open-source, e puoi eseguire la tua copia del servizio se necessario.



