Quelles sont les prochaines étapes de la détection de la toxicité dans Discourse AI

Aujourd’hui, nous annonçons la fin du module Discourse AI - Toxicity :waving_hand: au profit de Discourse AI - AI triage, exploitant la puissance des grands modèles linguistiques (LLM) pour offrir une expérience supérieure.

Pourquoi faisons-nous cela ?

Auparavant, l’utilisation du module Toxicity signifiait…

  • Vous étiez limité à un seul modèle prédéfini
  • Aucune personnalisation pour les besoins spécifiques de votre communauté
  • Des métriques de seuil confuses
  • Des performances médiocres

Les LLM ont beaucoup progressé et peuvent désormais offrir une expérience plus performante et personnalisable.

Quoi de neuf ?

Discourse AI - AI triage peut être utilisé pour trier les publications pour la toxicité (entre autres) et faire respecter les codes de conduite spécifiques des communautés. Cela signifie…

  • Prise en charge de plusieurs LLM pour différentes exigences de performance
  • Facilité de définition de ce que et comment le contenu doit être traité
  • Prompts personnalisables pour les besoins spécifiques de la communauté
  • Signalement de contenu pour examen

et bien plus encore.

Pour faciliter la transition, nous avons déjà rédigé des guides

Qu’advient-il de Toxicity ?

Cette annonce doit être considérée comme très préliminaire, jusqu’à ce que nous soyons prêts à le désaffecter, vous pouvez continuer à utiliser Toxicity. Lorsque nous le ferons, nous désaffecterons le module et supprimerons tout le code du plugin Discourse AI et les services associés de nos serveurs.

:backhand_index_pointing_right:t5: Mise à jour : Le module Toxicity a maintenant été officiellement supprimé de Discourse, cela inclut tous les paramètres et fonctionnalités du site associés. Nous exhortons maintenant les utilisateurs à passer à l’utilisation de Discourse AI - AI triage et à suivre les guides ci-dessus.

Les clients Business et Enterprise verront ce qui suit sous Nouveautés dans les paramètres d’administration de leurs sites, leur permettant d’activer les LLM hébergés par Discourse pour alimenter le triage par IA sans frais supplémentaires.

6 « J'aime »

Y a-t-il une date limite pour le module Toxicity ?

3 « J'aime »

Nous n’avons pas choisi de date précise mais nous travaillons actuellement à la finalisation de cela bientôt.

3 « J'aime »

Ceci est extrêmement pertinent pour un article que j’écris actuellement pour le Community Leaders Institute, pour mon doctorat sur la toxicité, et plus encore. Seriez-vous tous disposés à faire une interview en coulisses sur ce système pour ma chaîne YouTube dans le cadre de ma série sur l’inoculation des communautés en ligne contre la toxicité ? Cela sert également d’effort académique pour mon doctorat.

Êtes-vous partant ?

2 « J'aime »

Merci de penser à Discourse pour votre chaîne YouTube ! Pourriez-vous s’il vous plaît envoyer plus de détails par e-mail à mae@discourse.org sur ce qu’impliquerait exactement l’interview en coulisses et ce qui est nécessaire de notre côté ?

2 « J'aime »

Pour information concernant le changement suivant

2 « J'aime »

Merci Mae ! J’ai fait le suivi !

1 « J'aime »

Pour information, nous masquons désormais les paramètres du site pour activer/désactiver la toxicité et le contenu NSFW. Ceci s’inscrit dans le cadre de nos efforts continus pour déprécier ces fonctionnalités.

Si vous avez activé ces fonctionnalités, elles continueront de fonctionner normalement. Nous n’avons PAS encore entièrement déprécié ces fonctionnalités.

Si vous les aviez désactivées et souhaitez les réactiver, vous ne pourrez plus le faire.

1 « J'aime »

Salut tout le monde, je voulais juste partager cette mise à jour

1 « J'aime »