Aujourd’hui, nous annonçons la fin du module Discourse AI - Toxicity au profit de Discourse AI - AI triage, exploitant la puissance des grands modèles linguistiques (LLM) pour offrir une expérience supérieure.
Pourquoi faisons-nous cela ?
Auparavant, l’utilisation du module Toxicity signifiait…
Vous étiez limité à un seul modèle prédéfini
Aucune personnalisation pour les besoins spécifiques de votre communauté
Des métriques de seuil confuses
Des performances médiocres
Les LLM ont beaucoup progressé et peuvent désormais offrir une expérience plus performante et personnalisable.
Quoi de neuf ?
Discourse AI - AI triage peut être utilisé pour trier les publications pour la toxicité (entre autres) et faire respecter les codes de conduite spécifiques des communautés. Cela signifie…
Prise en charge de plusieurs LLM pour différentes exigences de performance
Facilité de définition de ce que et comment le contenu doit être traité
Prompts personnalisables pour les besoins spécifiques de la communauté
Signalement de contenu pour examen
et bien plus encore.
Pour faciliter la transition, nous avons déjà rédigé des guides
Cette annonce doit être considérée comme très préliminaire, jusqu’à ce que nous soyons prêts à le désaffecter, vous pouvez continuer à utiliser Toxicity. Lorsque nous le ferons, nous désaffecterons le module et supprimerons tout le code du plugin Discourse AI et les services associés de nos serveurs.
Mise à jour : Le module Toxicity a maintenant été officiellement supprimé de Discourse, cela inclut tous les paramètres et fonctionnalités du site associés. Nous exhortons maintenant les utilisateurs à passer à l’utilisation de Discourse AI - AI triage et à suivre les guides ci-dessus.
Les clients Business et Enterprise verront ce qui suit sous Nouveautés dans les paramètres d’administration de leurs sites, leur permettant d’activer les LLM hébergés par Discourse pour alimenter le triage par IA sans frais supplémentaires.
Ceci est extrêmement pertinent pour un article que j’écris actuellement pour le Community Leaders Institute, pour mon doctorat sur la toxicité, et plus encore. Seriez-vous tous disposés à faire une interview en coulisses sur ce système pour ma chaîne YouTube dans le cadre de ma série sur l’inoculation des communautés en ligne contre la toxicité ? Cela sert également d’effort académique pour mon doctorat.
Merci de penser à Discourse pour votre chaîne YouTube ! Pourriez-vous s’il vous plaît envoyer plus de détails par e-mail à mae@discourse.org sur ce qu’impliquerait exactement l’interview en coulisses et ce qui est nécessaire de notre côté ?
Pour information, nous masquons désormais les paramètres du site pour activer/désactiver la toxicité et le contenu NSFW. Ceci s’inscrit dans le cadre de nos efforts continus pour déprécier ces fonctionnalités.
Si vous avez activé ces fonctionnalités, elles continueront de fonctionner normalement. Nous n’avons PAS encore entièrement déprécié ces fonctionnalités.
Si vous les aviez désactivées et souhaitez les réactiver, vous ne pourrez plus le faire.