Nous sommes heureux d'annoncer Discourse AI, un nouveau plugin et notre solution tout-en-un pour intégrer l'intelligence artificielle et Discourse, permettant à la fois de nouvelles fonctionnalités et l'amélioration de celles existantes. Avec cette première version, nous livrons 7 modules différents de Discourse AI pour aider les gestionnaires de communauté, les membres et les modérateurs dans diverses tâches, de l'analyse des sentiments à la relecture automatisée et aux suggestions de modifications. Lisez la suite pour en savoir plus sur chacune de ces fonctionnalités ainsi que sur ce qui s'en vient sur notre feuille de route !
C’est un travail impressionnant, @Falco et son équipe. J’ai vraiment hâte de voir comment tout cela fonctionnera en pratique et son impact sur la gestion de la communauté dans son ensemble.
Ce sont le genre de mises à jour qui donnent l’impression d’ouvrir un nouveau cadeau de Noël.
Nous (au moment de la rédaction) n’avons pas de responsable dédié pour notre communauté, et des outils comme celui-ci nous permettent de continuer à évoluer sans rôle dédié.
Sans oublier les fonctionnalités comme l’assistant de composition qui améliorent simplement l’expérience utilisateur.
Je suis ravi de cela et je l’ajouterai dès que possible.
Y a-t-il des projets pour utiliser l’IA afin de détecter le spam de publications/commentaires générés par l’IA ? C’est un problème énorme (en général) dans les communautés.
Oui, nous prévoyons d’explorer ce domaine. La difficulté est que nous n’avons qu’un petit nombre d’exemples à fournir à GPT-4 étant donné les limites de prompt, respecter les limites de tokens est très difficile. Il existe cependant plusieurs autres approches que nous pouvons adopter et nous allons explorer et faire un rapport.
Même avec très peu de réglages fins, GPT-4 ne fait pas un travail terrible pour évaluer les choses :
Pourriez-vous essayer avec un article qui contient un long bloc de code ou une sortie syslog ? Ceux-ci sont constamment marqués comme spam par akismet sur notre site.
Probablement, mais ce serait très cher d’affiner un modèle. Certaines personnes obtiennent de très bons résultats en utilisant simplement des embeddings, c’est probablement la prochaine chose à essayer.
Quand j’ai vérifié, le fine-tuning est beaucoup moins cher que ce que j’avais prévu. Cela dépend beaucoup de la quantité de données d’entraînement que vous prévoyez d’utiliser, mais si la comparaison porte sur la taille que vous pouvez intégrer dans un seul GPT-4, c’est quelques centimes.
Je ne suis pas encore arrivé au point de l’utiliser, donc il y a des chances que j’aie manqué quelque chose, alors corrigez-moi si je me trompe.
La formation peut être très, très coûteuse. Dans mon cas, pour nos calculs de formation, rien que pour la formation minimale recommandée par OpenAI, nous parlerions de près de 200 000 $ pour la formation sur un seul cas d’utilisation.
Les nouveaux utilisateurs sont-ils toujours confus par les limites du TL1 ?
Si oui, je pense que l’IA pourrait être une bonne solution pour cela, permettre aux nouveaux utilisateurs de faire plus, mais avec l’IA qui leur prête une attention particulière, et la mettre dans la file d’attente des modérateurs si elle n’est pas sûre que tout va bien.
Aucun problème @Falco, j’ai fait une analyse approfondie aujourd’hui et cela semble très prometteur, même une invite triviale donne des résultats étonnamment bons. Le spam est juste tellement, tellement spammy.
Je laisse Falco partager les détails.
Une autre approche intéressante que nous pouvons éventuellement combiner est de s’appuyer sur la base de données vectorielle. Si vous publiez quelque chose et que le vecteur est proche de 20 autres spams… eh bien, c’est probablement du spam. Cette approche permet un réglage fin.
Pour être honnête, je vois l’avenir d’Akismet comme peu brillant. Matt doit être stressé à long terme à ce sujet.