Experimentos com moderação baseada em IA no Discourse Meta

Não posto há algum tempo, apesar de visitar minha pequena janela de chat diariamente e ela ser útil pelo menos uma ou duas vezes por dia… consistentemente.

O motivo do meu atraso aqui foi que tive que trabalhar nesta mudança bastante grande.

Ela fornece uma melhoria sutil, porém crítica, para o Discourse AI.

Eu notava regularmente o bot de moderação falando sobre imagens completamente irrelevantes, devido à forma como construímos o contexto. A mudança nos permite apresentar conteúdo misto (contendo imagens e texto em uma ordem correta).

Isso significa que o LLM não fica mais confuso.

O que vem a seguir?

  1. Não temos como automatizar para que ele chame uma regra após a edição de posts ter se “estabilizado”, chamadas de LLM podem ser caras, só porque as pessoas editam erros de digitação, não queremos analisar algo repetidamente. Não tenho certeza se isso é necessário aqui, mas gostaria de permitir a possibilidade de acionar uma automação assim que um post se estabilizar na nova forma.
  2. Engenharia de prompt - o prompt atual está OK, mas um pouco barulhento demais para o meu gosto, está me incomodando um pouco demais, posso suavizá-lo um pouco.
  3. Contexto aprimorado - uma coisa que realmente me incomoda é que a automação agora não tem consciência da confiança do usuário. Alguns usuários são muito mais confiáveis em uma comunidade do que outros (por exemplo, moderadores) Eu gostaria de ver se podemos melhorar essa situação.
  4. Capacidade de executar a automação em lotes de posts para iterações rápidas.
  5. Tenho certeza de que muito mais surgirá.
8 curtidas