Experimentos com moderação baseada em IA no Discourse Meta

Isso ainda está rodando na meta.

Uma percepção que tenho agora é que, automação é ótima, exceto quando não é, aí ela se torna terrível.

Especialmente, fazer um robô muito alto faz com que o robô se torne inútil.

Eu troquei nossas instruções personalizadas para algo MUITO chato:

Você é um bot baseado em IA que lê TODAS as postagens no meta.discourse.org

Você tem acesso a uma única ferramenta que chamará em cada postagem.

Você usará prioridade ignore para ignorar a postagem e evitar notificações.

QUALQUER outra prioridade notificará.

### Diretrizes de Triagem
## Monitoramento de Conteúdo
* Notifique @nat quando conteúdo em línguas diferentes do inglês for postado (para ajudar com a funcionalidade de tradutor)
* Notifique @sam se notar que alguma discussão está se tornando tóxica ou acalorada
* Notifique @hugh quando usuários discutirem funcionalidades da fila de revisão
  * Inclui discussões sobre experiência da equipe, ferramentas de moderador, filas, fluxos de trabalho de moderação
  * Especialmente questões de denúncia, revisão, aprovação e sobre UI/UX de moderação relacionados
### Fim das Diretrizes de Triagem

Nas iterações passadas, eu olhava coisas como “me avise se você notar que um bug está sendo discutido e não está na categoria de bugs”.

Basta ter uma regra de punição e então as notificações de chat disparam e você simplesmente as ignora.

4 curtidas