Sperimentazioni con la moderazione basata su AI su Discourse Meta

Non posto da un po’, nonostante visiti quotidianamente la mia piccola finestra di chat e questa sia stata utile almeno un paio di volte al giorno… costantemente.

Il motivo del mio ritardo qui è che ho dovuto lavorare su questa modifica piuttosto importante.

Fornisce un miglioramento sottile, ma critico, a Discourse AI.

Notavo regolarmente che il bot di moderazione parlava di immagini completamente irrilevanti, a causa del modo in cui costruivamo il contesto. La modifica ci consente di presentare contenuti misti (contenenti immagini e testo in modo ordinato).

Ciò significa che l’LLM non si confonde più.

Cosa succederà dopo?

  1. Non abbiamo modo di automatizzare la chiamata di una regola dopo che la modifica del post si è “stabilizzata”, le chiamate LLM possono essere costose, solo perché le persone correggono errori di battitura non vogliamo analizzare qualcosa più e più volte. Non sono sicuro se questo sia necessario qui, ma vorrei consentire la possibilità di attivare un’automazione una volta che un post si stabilizza nella nuova forma.
  2. Prompt engineering - il prompt attuale va bene, ma è un po’ troppo rumoroso per i miei gusti, mi infastidisce un po’ troppo, potrei ammorbidirlo un po’.
  3. Contesto migliorato - una cosa che mi infastidisce davvero è che l’automazione ora non ha consapevolezza della fiducia dell’utente. Alcuni utenti sono molto più fidati in una community rispetto ad altri (ad esempio, i moderatori) vorrei vedere se possiamo migliorare questa situazione.
  4. Possibilità di eseguire l’automazione su batch di post per iterazioni rapide.
  5. Sono sicuro che salteranno fuori molte altre cose.
8 Mi Piace