Quelles sont les différences entre le plugin officiel Discourse AI et le plugin Discourse Chatbot 🤖 en termes de bots d’IA et de leurs fonctionnalités ?
@merefield le plugin existe depuis plus longtemps et offre beaucoup plus d’options de configuration. AI Bot est également un peu plus ambitieux (surtout depuis que nous avons accès à GPT 4) dans la mesure où nous tentons de l’intégrer à l’expérience Discourse - il sait comment rechercher et résumer des sujets, par exemple.
Les différences notables à ce jour sont probablement :
- Nous diffusons les réponses en continu et proposons un bouton d’arrêt
- @merefield offre beaucoup plus de paramètres pour ajuster les choses
- Nous proposons un framework de “commandes” pour que le bot agisse en votre nom - bien que l’expérience soit assez instable avec GPT 3.5
- @merefield offre actuellement une intégration du chat Discourse, pas nous encore
- Nous proposons également une intégration Anthropic
À ajouter : D’après mes tests, il semble que le bot IA ne fonctionne que dans les messages privés et que le chatbot fonctionne partout, à moins que je ne fasse quelque chose de mal avec le bot IA.
La génération d’images et le streaming sont bien réalisés, tout comme l’API de recherche, cependant, il retombe parfois sur « Je ne peux pas rechercher sur le Web ou je ne peux pas générer d’images ». Utilisez-vous quelque chose de similaire aux agents LangChain, qui décident des étapes à suivre ?
Sommes-nous censés créer un CX avec une portée pour le Web entier, ou juste notre URL d’instance ?
C’est exact. Nous allons probablement étendre l’intégration, mais nous prenons notre temps et essayons d’abord de peaufiner ce qui existe déjà.
Oui, c’est la chose très frustrante avec GPT 3.5 par rapport à GPT 4. Ancrer le modèle pour 3.5 est tout simplement très, très difficile.
J’envisage d’avoir une étape intermédiaire avant de répondre dans GPT 3.5 qui d’abord trie avant de répondre réellement (par exemple : cette interaction INTERACTION semble-t-elle devoir aboutir à une commande !command, et si oui, laquelle ?) Cela ajouterait malheureusement des coûts et des délais, donc c’est mon dernier recours.
Nous utilisons une sorte de « langchain », limitée à 5 étapes, mais nous essayons d’être très économes avec les jetons, donc l’équilibre est difficile.
À vous de voir… J’aime avoir accès à tout Google, c’est très pratique.
Ce que je fais pour ancrer 3.5 est d’ajouter une seconde invite système, plus courte, plus bas dans l’invite finale pour « rappeler » au modèle certaines des règles de l’invite système principale.
Cela ressemblerait donc à quelque chose comme (je tape depuis mon téléphone, j’essaie…)
rôle système
utilisateur
assistant
..
..
rôle système « rappel »
nouvelle invite utilisateur
En répétant simplement le contenu le plus important du rôle système, le modèle lui accorde plus de poids. J’utilise cette solution de contournement depuis quelques mois maintenant sans trop de réponses étranges.
Surtout si les invites deviennent plus longues, le modèle a tendance à « oublier » les choses qui se trouvent plus haut dans l’invite finale. Les choses en IA sont très bricolées, c’est quelque chose que j’expérimente dans les modèles GPT et langchain également. Juste aujourd’hui, j’ai eu une personnalité si forte dans langchain que les actions lorsque je demandais l’heure dans une ville aléatoire étaient « regarder ma montre », « changer le fuseau horaire de ma montre » et « demander à un étranger ».