Ciao a tutti,
Vorrei proporre un filtro assistito dall’IA per risposte a basso segnale/senza significato (“risposte acqua”, commenti spam generici) all’interno dei topic.
Il problema
In molte community di lingua inglese, i topic vengono spesso inondati da risposte brevi e di scarso valore come:
- “Grazie / bello / buon post”
- “Sono d’accordo”
- “Seguo”
- “Su”
- complimenti generici senza nuove informazioni
Queste risposte aggiungono rumore, aumentano lo scorrimento e riducono l’esperienza di lettura per tutti, specialmente nelle discussioni lunghe.
I moderatori possono contrastare questo con regole e azioni manuali, ma non scala bene. E il filtraggio puramente basato su regex tende ad avere un alto tasso di falsi positivi.
Cosa ho costruito / prototipo attuale
Attualmente sto sperimentando un approccio simile a un plugin:
- Pre-filtro Regex per catturare le risposte brevi/evasive più ovvie
- Quindi passare i candidati rimanenti a un LLM per la classificazione
- L’interfaccia utente deve essere trasparente: mostrare quante risposte sono state nascoste
- Le risposte nascoste dovrebbero essere visualizzabili su richiesta (“Mostra risposte nascoste”)
- (Opzionale) Per i contenuti nascosti, eseguire un altro passaggio LLM per estrarre 2-3 frasi rappresentative dalle risposte nascoste, in modo che i lettori possano vedere rapidamente “cosa è stato nascosto” senza espandere tutto.
Anche solo con le regex, l’esperienza di lettura migliora notevolmente (meno scorrimento), ma il tasso di falsi positivi è troppo alto, quindi ritengo che il giudizio basato su LLM sia necessario.
Comportamento del prodotto proposto (visibile all’utente)
All’interno di ogni topic, i lettori vedrebbero qualcosa come:
- “12 risposte nascoste (Filtro basso segnale: Medio)”
- Pulsanti: Mostra risposte nascoste / Cambia livello filtro
E fornire diversi livelli, ad esempio:
- Disattivato: mostra tutto
- Basso: nasconde la spazzatura ovvia (precisione molto alta)
- Medio: nasconde le risposte comuni a basso segnale
- Alto: filtraggio aggressivo (l’utente accetta)
Importante:
- Questa dovrebbe essere una preferenza per utente (e forse configurabile per categoria/impostazione predefinita del sito).
- Il sistema deve rimanere trasparente e reversibile: nulla viene “cancellato”, solo nascosto per impostazione predefinita.
Perché questo si adatta a Discourse (specialmente ora)
Discourse ha già diverse funzionalità relative all’IA e l’ecosistema Discourse AI è in crescita. Penso che un “ripulitore” di risposte all’interno del topic sia uno degli usi più pratici e di grande impatto degli LLM per l’esperienza utente della community.
Non è esattamente un “rilevamento spam” (che di solito è a livello di account). Questo riguarda maggiormente la qualità di lettura a livello di topic.
Domande per i manutentori / community
- Discourse ha già piani per un filtro di qualità delle risposte / basso segnale?
- Avrebbe senso costruirlo come estensione di Discourse AI, o come plugin separato?
- Qual è il modo migliore per implementare l’interfaccia utente/UX in modo che sia trasparente e non confonda gli utenti?
- Ci sono preoccupazioni riguardo alla politica di moderazione, ai livelli di fiducia o ai casi limite (ad esempio, risposte brevi ma utili come “Risolto”, “+1 con un link”, ecc.)?
Se questa direzione ha senso, sono felice di condividere maggiori dettagli (regole regex, mockup UI, idee per i prompt) e potenzialmente lavorare su una PR/plugin.
Grazie!