Discourse AI est disponible depuis un certain temps maintenant et j’essaie de comprendre comment les gens l’utilisent. En tant que chef de produit de l’équipe IA, je souhaite apprendre de votre expérience afin de mieux adapter Discourse AI à votre communauté.
Si votre communauté utilise Discourse AI, j’aimerais avoir de vos nouvelles !
J’aimerais savoir comment votre communauté utilise les différentes fonctionnalités d’IA disponibles. À un niveau général, j’aimerais savoir…
Comprendre les problèmes que vous cherchez à résoudre en utilisant Discourse AI
Quelles fonctionnalités d’IA utilisez-vous actuellement et pourquoi ?
Lesquelles fonctionnent bien pour vous ? En appréciez-vous ou en rejetez-vous certaines ?
Qu’aimeriez-vous changer ou voir fait différemment ?
Oui, rencontrons-nous pour un entretien de 30 minutes via Google Meet
Oui, je partagerai mes commentaires par écrit (MP)
Non merci, pas pour moi
0voters
Je contacterai directement toute personne intéressée. N’hésitez pas à me contacter également, mes boîtes de réception sont ouvertes !
J’anime une petite communauté et nous n’utilisons pas la fonctionnalité d’IA, cependant, je l’utilise souvent ici sur Meta. Suis-je toujours éligible pour partager mes commentaires ?
Je n’ai pas encore fait beaucoup de recherches sur votre offre d’IA, mais les deux points principaux qui ressortent :
traduction à la demande dans la langue des utilisateurs
répondre à des questions simples en se référant à mon corpus de réponses personnalisées (le forum plus toute la documentation que je fournis)
sur les sites plus grands, je pourrais imaginer une détection plus stricte/intelligente de « déjà demandé », cependant sur mon site, je pense qu’il est préférable d’avoir moins de barrières à la publication et plutôt que les modérateurs fusionnent les sujets de manière conviviale et sans faux positifs (peut-être envoyer aux modérateurs une suggestion de fusion ?)
Pour le deuxième point ci-dessus, si vous fournissez une infrastructure pour alimenter les connaissances et répondre aux questions, ce serait également un « iFrame » soigné pour d’autres sites.
Nous proposons actuellement Discourse Translator qui dispose d’une pléthore de fournisseurs et de configurations.
Nous sommes en train d’essayer de construire un bot IA avec RAG sur la documentation téléchargée pour aider à répondre aux questions courantes. Pour l’instant, le persona Forum Helper du bot IA peut faire un travail décent !
Je voulais noter que je pense avoir contacté tout le monde jusqu’à présent lors des sondages - je continuerai pendant les prochaines semaines (Si je ne l’ai pas fait ou si je vous ai manqué, n’hésitez pas à m’envoyer un message privé !)
J’aime beaucoup le plugin Discourse AI. Je l’utilise personnellement pour générer des images et pour faire des recherches sur Google. Je l’utilise surtout pour m’amuser cependant.
Veuillez pardonner - Je ne suis pas familier avec les capacités de l’IA Discourse. Je voulais envisager cette fonctionnalité pour la modération de contenu, mais je n’ai pas encore examiné en profondeur son positionnement ou ses capacités.
Nous avons une longue liste de langage interdit, mais la modération par IA en front-end éliminerait une tonne d’expressions régulières et de mots-clés.
Je ne sais pas si l’IA Discourse peut prétraiter le contenu, pour déclencher une fonction où nous pouvons déterminer quoi faire en fonction des résultats. Considérez les fonctionnalités de modération dans Discourse pour bloquer des termes plutôt que de conserver le contenu pour modération.
J’aimerais arriver à un point où chacun de nous peut utiliser les outils disponibles pour affiner la gestion de ces concepts :
Quel est le contenu acceptable ?
Que se passe-t-il lorsque des types spécifiques de contenu sont détectés ? (Déclencher des fonctions)
Quelles fonctions d’API pouvons-nous utiliser pour réagir à des déclencheurs de contenu spécifiques ? Les exemples incluent : avertir l’utilisateur, bloquer l’utilisateur, bloquer en fonction du nombre d’avertissements, transmettre au modérateur, mettre en file d’attente de modération, ou des combinaisons de ces actions.
En tant que développeur familier avec l’état actuel des LLM et des outils associés, il me manque deux choses à ce sujet :
Je manque d’une compréhension ferme de l’endroit exact où se situe l’IA Discourse, du modèle spécifique utilisé, et des options de codage/API dont nous disposons pour l’intégration et la gestion.
Je manque de compréhension des options d’API disponibles qui permettraient à quelqu’un comme moi de coder des solutions personnalisées, plutôt que de compter sur l’équipe de Discourse pour envisager et fournir des solutions qui seraient, espérons-le, acceptables pour le plus grand nombre.
Alors, “Comment utilisez-vous l’IA Discourse ?” Eh bien, c’est comme ça que j’aimerais l’utiliser. Quant à “l’améliorer encore”, j’espère que la documentation détaillée et une API permettront des configurations au niveau du site qui élimineront beaucoup de développement d’équipe ici. Cela permettra à l’équipe de se concentrer sur des choses que nous, à l’extérieur, ne pouvons pas faire. Je considère que c’est un solide gagnant-gagnant pour tout le monde.
Les informations précédentes sur les fonctionnalités/capacités de Discourse AI et les modèles spécifiques utilisés devraient être disponibles dans la documentation et la page AI.
Le dernier commentaire sur les options de codage/API pour plus de flexibilité est quelque chose que nous pourrions envisager de faire à l’avenir ! Je serais d’accord avec vos sentiments sur le fait que cela pourrait être une situation gagnant-gagnant si et quand nous y parviendrons.
J’ai remarqué que si Gemini refuse de résumer un message en raison de mots NSFW qu’il contient, aucune erreur n’est générée et rien n’est indiqué. Le chargement reste bloqué indéfiniment.
Je suggère un message du type « Désolé, je ne peux pas résumer ce contenu en raison de matériel inapproprié, conformément aux directives de Google » ou quelque chose de similaire. Ainsi, l’utilisateur sait ce qui se passe au lieu de penser que le bot est défectueux ou qu’il met beaucoup de temps à publier son message.
J’ai eu des résultats mitigés (médiocres) avec Gemini pour les résumés, est-ce que cela se produit uniquement lorsqu’il y a du contenu NSFW ? Pourriez-vous partager une capture d’écran ou le contenu ?
également une fonction intéressante, vérifiez les balises similaires (soit sous forme d’avertissement lors de la création de nouvelles balises, soit sous forme de rapport hebdomadaire aux modérateurs pour examiner celles qui pourraient être fusionnées)
Juste aujourd’hui, j’ai fusionné « allemand », « Allemagne » et « de » ou « acme-component » et « component » en tant que modérateur. Je peux le faire car j’ai une intuition pour la plupart des tags, car j’ai écrit une liste, mais une fois que le site sera plus actif et que d’autres modérateurs feront du travail à temps partiel…
J’aimerais vraiment avoir une fonction avec une IA pour transformer un sujet ou un groupe de sujets sélectionnés en un article wiki et éventuellement le mettre à jour à la demande lors des développements ultérieurs des publications.
Optionnellement, gérer automatiquement les publications non fusionnables/conflictuelles dans ces sujets avec des groupes générés ou des sujets dédiés spécifiques pour tenter d’étendre la discussion.
Ce serait très utile dans le processus de transformation des discussions en positions/documents avec un certain niveau d’accord. C’est maintenant une activité très fastidieuse et manuelle juste pour créer un résultat de base, surtout à grande échelle.
Ceci, avec une forme de vote Condorcet dans le groupe conflictuel, serait un outil formidable et unique à avoir dans Discourse :
Serait-ce comme mettre à jour l’OP du wiki avec des informations de plus en plus récentes ? Quels seraient vos critères pour choisir certains messages ?
L’OP du post WIKI est le bot/agent LLM. Et ce n’est pas comme le bouton de résumé de l’IA, mais plutôt comme un rapport/une proposition/un document de l’IA comme résultat d’une discussion. Les mises à jour pourraient être automatisées ou à la demande.
Dans de nombreux sujets, toutes les positions ne peuvent pas être fusionnées dans un artefact unifié en raison de conflits. Ainsi, pour ceux-ci, le bot IA va proposer des sondages ou de nouveaux sous-thèmes sur des points conflictuels spécifiques pour essayer de se concentrer et de résoudre les opinions contrastées (avec une discussion supplémentaire, puis lorsqu’une date limite est atteinte avec un vote par sondage).
Le groupe de sujets sera sélectionné par les modérateurs/administrateurs. Cela pourrait être fait manuellement, puis nous aurons une connexion/relation entre le post wiki du bot IA et la liste des identifiants de sujets associés.
Je pense que c’est la manière la plus intéressante de préparer et de mettre à jour des artefacts de base semi-automatisés à partir de discussions.
De nombreuses communautés exigent d’avoir des artefacts issus de discussions, mais la création d’une base d’artefacts manuelle est une tâche très longue.