Actuellement, via le plugin Discourse Automation, vous pouvez générer des réponses aux sujets en fonction des mots-clés détectés. Cette option est disponible dans le cadre du script Auto Responder et peut être configurée via l’option Liste de paires mot/reponse. De plus, vous pouvez utiliser la triage IA pour fournir des réponses toutes faites sur les sujets en se basant sur des prompts LLM, ses résultats et le contexte du message.
L’idée de la demande de fonctionnalité ici est d’introduire une dimension IA en utilisant un LLM pour décrypter ce qui est écrit à travers des prompts personnalisables, plutôt que de se fier aux mots-clés. Le LLM peut alors répondre de manière intelligente, au lieu d’utiliser simplement des réponses toutes faites.
Curieux de savoir si d’autres personnes sont intéressées par quelque chose comme ça et à quoi elles l’utiliseraient. Des exemples d’usages sont toujours appréciés !
Pouvez-vous donner quelques exemples de cela en fonctionnement, soit sous forme de texte ici, soit sous forme de liens vers des utilisations réelles. Merci.
Absolument ! Il existe d’innombrables cas d’utilisation pour cela. Pensez à un bot de support de base : un utilisateur poste dans la catégorie « Aide » parce qu’il ne sait pas comment utiliser une fonctionnalité de Discourse. Ensuite, il peut y avoir une personne désignée qui répond automatiquement à chaque nouveau sujet dans cette catégorie. En combinant cela avec RAG, des outils et une ingénierie de prompts détaillée, vous pouvez faire preuve de beaucoup de créativité.
Hypothétiquement, chaque catégorie pourrait avoir son propre « bot expert en catégorie ».
Eh bien, celui que j’ai lié fait exactement cela. Et c’est comme ça que je l’ai utilisé (phrase au passé car j’ai changé d’approche, pas parce qu’il a échoué)
L’idée est que vous pouvez sélectionner un outil pour effectuer le triage, celui-ci peut à son tour créer des sujets, aimer des choses, faire ce que vous voulez. J’espère continuer à travailler dessus bientôt.
Cela est arrivé en interne comme une demande, donc nous explorons l’idée en nous basant sur des exemples et des cas d’utilisation de la communauté, sur lesquels Sam travaille actuellement.
Un exemple pour moi serait de suggérer aux utilisateurs de poster au bon endroit. Par exemple, si un sujet semble ne pas correspondre à la catégorie, au lieu de modifier automatiquement ce changement, peut-être répondre dans le sujet en suggérant d’autres catégories.
Notre cas d’utilisation pour cela est que lorsqu’un utilisateur publie une question dans notre Discourse, nous aimerions que l’IA s’appuie sur notre modèle entraîné pour donner une première réponse au premier message. Nous essayons de fournir à l’utilisateur une réponse rapide et pertinente avec l’IA, et de faire un suivi si nécessaire.
J’aime beaucoup l’idée d’avoir un expert en IA pour chaque catégorie.
Je travaillerai sur la documentation demain. Nous avons ce que j’appellerais les modes 1 et 2 implémentés :
Ultra trivial, sélectionner la cible et répondre inconditionnellement (catégorie / tag / groupe pm etc.)
Triage + Répondeur, qui vous permet de trier puis de répondre dynamiquement avec le triage llm
J’ai également implémenté le mode (3) méga sophistiqué - qui est toujours en cours et désactivé pour le moment.
Triage à l’aide d’un outil IA
Ceci n’est pas terminé, mais une fois terminé, cela permettra des choses très sophistiquées comme le triage à l’aide d’un LLM, puis le routage vers la persona correcte et la réalisation d’autres choses extrêmement compliquées.
Personnellement, je n’aime pas l’idée des réponses automatiques en raison du risque d’agacer nos utilisateurs (mais peut-être sommes-nous gâtés par un taux de réponse décent à nos nouveaux sujets de la part de nos utilisateurs).
Cependant, j’aime le plus ce cas d’utilisation :
Nous avons en fait quelque chose comme cela automatisé avec une API depuis des années, où nous répondons avec une réponse toute faite après 24 heures sans réponse sur un sujet. Pouvoir augmenter cette réponse toute faite avec des LLM serait fantastique (tant qu’il y a un interrupteur pour répondre conditionnellement uniquement aux sujets sans réponse après x heures).
Whispers (qui est un mode que nous prenons en charge) est une solution, utilisez-le pour aider les modérateurs.
Je pense également que certains flux sophistiqués peuvent réduire considérablement les risques (cela devra attendre les outils)
Rédiger une réponse
Demander à LLM d’évaluer la valeur ajoutée de la réponse de 1 à 10
Si 8 ou plus, publier la réponse
J’adore cette idée, elle nécessitera un nouveau type de déclencheur d’automatisation, je vais devoir y réfléchir. Ce type de “déclencheur sur les sujets de la catégorie X qui n’ont reçu aucune réponse après un jour - vérification toutes les 10 minutes” n’est pas un déclencheur que nous avons actuellement… nous devons trouver comment l’ajouter à l’automatisation.
Nous avons un déclencheur “sujet bloqué” mais je ne pense pas qu’il ait la capacité de “contourner” sur “a une réponse”, nous devrons peut-être l’étendre.
De plus, pour les intégrations API, une action “répondez simplement à ce sujet avec cette personnalité” serait assez incroyable et très, très facile à construire.