Hoy anunciamos la despedida del módulo Discourse AI - Toxicidad en favor de Discourse AI - AI triage, aprovechando el poder de los Modelos de Lenguaje Grandes (LLMs) para ofrecer una experiencia superior.
¿Por qué hacemos esto?
Anteriormente, usar el módulo de Toxicidad significaba…
Estar limitado a usar un único modelo predefinido
Sin personalización para las necesidades específicas de tu comunidad
Métricas de umbral confusas
Rendimiento deficiente
Los LLMs han avanzado mucho y ahora pueden ofrecer una experiencia más personalizable y de mejor rendimiento.
¿Qué hay de nuevo?
Discourse AI - AI triage se puede usar para clasificar publicaciones por Toxicidad (entre otras formas) y hacer cumplir los códigos de conducta específicos de las comunidades. Esto significa…
Múltiples LLMs compatibles para diferentes requisitos de rendimiento
Fácil de definir qué y cómo se debe tratar el contenido
Prompts personalizables para necesidades específicas de la comunidad
Marcar contenido para su revisión
y mucho más.
Para ayudar con la transición, ya hemos redactado guías:
Este anuncio debe considerarse muy temprano, hasta que estemos listos para desmantelarlo, puedes seguir usando Toxicidad. Cuando lo hagamos, desmantelaremos el módulo y eliminaremos todo el código del plugin Discourse AI y los servicios asociados de nuestros servidores.
Actualización: El módulo de Toxicidad ha sido eliminado oficialmente de Discourse, esto incluye todas las configuraciones y funciones del sitio relacionadas. Ahora instamos a los usuarios a migrar al uso de Discourse AI - Clasificación de IA y seguir las guías mencionadas anteriormente.
Los clientes Business y Enterprise verán lo siguiente en Novedades en la configuración de administración de sus sitios, lo que les permitirá habilitar LLMs alojados por Discourse para potenciar la clasificación de IA sin costo adicional.
Esto es extremadamente relevante para un artículo que estoy escribiendo para el Community Leaders Institute en este momento, para mi doctorado sobre toxicidad, y más. ¿Estarían todos dispuestos a hacer una entrevista detrás de cámaras sobre este sistema para mi canal de YouTube como parte de mi serie sobre cómo inocular a las comunidades en línea contra la toxicidad? También está sirviendo como un esfuerzo académico para mi doctorado.
¡Gracias por considerar Discourse para tu canal de YouTube! ¿Podrías enviar más detalles por correo electrónico a mae@discourse.org sobre en qué consistiría exactamente la entrevista detrás de cámaras y qué se necesita de nuestra parte?
Como aviso, ahora estamos ocultando la configuración del sitio para habilitar/deshabilitar Toxicidad y NSFW. Este es nuestro esfuerzo continuo a medida que continuamos descontinuando las funciones.
Si tiene estas funciones activadas, seguirán funcionando con normalidad. AÚN NO hemos descontinuado completamente las funciones.
Si las tiene desactivadas y desea activarlas, ya no podrá hacerlo.