Experimentos con moderación basada en IA en Discourse Meta

No he publicado en mucho tiempo, a pesar de visitar mi pequeña ventana de chat a diario y que esta fuera útil al menos una o dos veces al día… constantemente.

La razón de mi retraso aquí fue que tuve que trabajar en este cambio bastante grande.

Proporciona una mejora sutil, pero crítica, para Discourse AI.

Notaba regularmente que el bot de moderación hablaba de imágenes completamente irrelevantes, debido a la forma en que construimos el contexto. El cambio nos permite presentar contenido mixto (que contiene imágenes y texto en un orden correcto).

Esto significa que el LLM ya no se confunde.

¿Qué sigue?

  1. No tenemos forma de automatizar para que llame a una regla después de que la edición de la publicación se haya “asentado”, las llamadas a LLM pueden ser costosas, solo porque la gente edita errores tipográficos no queremos escanear algo una y otra vez. No estoy seguro de si esto es necesario aquí, pero me gustaría permitir la posibilidad de activar una automatización una vez que una publicación se asiente en su nueva forma.
  2. Ingeniería de prompts: el prompt actual está bien, pero es un poco ruidoso para mi gusto, me molesta demasiado, puede que lo suavice un poco.
  3. Contexto mejorado: una cosa que realmente me molesta es que la automatización ahora no tiene en cuenta la confianza del usuario. Algunos usuarios son mucho más confiables en una comunidad que otros (por ejemplo, moderadores), me gustaría ver si podemos mejorar esta situación.
  4. Capacidad de ejecutar la automatización en lotes de publicaciones para iteraciones rápidas.
  5. Estoy seguro de que surgirán muchas más cosas.
8 Me gusta