Bien que la connexion du bot IA à des API externes soit assez impressionnante, je pense qu’il serait très utile que les administrateurs/développeurs puissent créer des chaînes de prompts en utilisant LCEL dans l’éditeur d’outils personnalisés afin de permettre des flux de travail plus complexes et des réponses intelligentes turbo-alimentées. Ou peut-être que l’éditeur d’outils personnalisés pourrait avoir une fonctionnalité de « constructeur de chaînes » qui encapsule essentiellement LangChain dans une interface graphique pour l’administrateur .
Alternativement, il serait très utile de permettre un temps d’exécution supérieur à deux secondes afin qu’une chaîne de prompts puisse être hébergée sur d’autres serveurs et exposée au serveur Discourse. 2 secondes suffisent pour envoyer des données à la chaîne, la laisser « réfléchir » à travers sa chaîne, puis obtenir une réponse . Mais c’est plus complexe et de niche, et moins convivial pour les non-ingénieurs. La première proposition a plus de sens.
Bien sûr, ces deux options introduisent des risques potentiels, donc idéalement, il y aurait un interrupteur pour l’activer avec un avertissement/une notification .
Mais pourquoi faire cela ? Eh bien, je suis content que vous demandiez .
Un comportement/une agence IA complexe n’est pas vraiment réalisable avec un seul prompt système, et c’est précisément pourquoi LangChain a été développé. Je suis un chercheur en IA et nous construisons une architecture cognitive agentique (pour l’instant) simple basée sur LLM qui interagira éventuellement avec les utilisateurs . Discourse serait le médium le plus idéal par lequel nous pouvons libérer cette bête, surtout depuis qu’elle peut être couplée au plugin d’automatisations — les possibilités sont vraiment infinies ici et j’adore ça .
Je suis convaincu que de nombreuses autres entreprises bénéficieraient également de pouvoir appliquer des agents à leurs forums. Les LLM sont assez impressionnants, cependant nous reconnaissons que des éléments d’IA symbolique (logique/basée sur des règles) sont toujours applicables au sein de systèmes d’IA plus vastes — tels que les architectures cognitives qui sont construites pour optimiser vers un état d’objectif particulier.
J’adorerais entendre vos commentaires, idées et critiques sur cette idée !
Je lis et comprends des mots, et c’est tout - parce que je suis un utilisateur final manquant de connaissances et de compréhension de base. Et je ne suis pas tout à fait sûr si vous essayez réellement de vendre un concept B2B ou quelque chose d’utile aux utilisateurs dans un environnement de forum. Ou les deux, c’est aussi une situation possible.
Bien sûr, il est bon d’avoir une grande variété d’outils et il n’y a aucune raison que tout le monde utilise tous les outils. Il est bon d’avoir un stock suffisant pour choisir.
Pouvez-vous donner des exemples concrets de ce que tout cela peut apporter à l’entreprise derrière un forum et à un utilisateur ?
On pourrait imaginer une infinité de cas d’utilisation en connectant des LLM ensemble pour atteindre un objectif, mais voici un exemple simple et concret…
Disons qu’il existe un forum pour les chercheurs qui ont besoin de trouver de nouveaux articles de recherche rapidement et facilement. On pourrait simplement utiliser la bibliothèque http déjà disponible dans le constructeur d’outils personnalisés du plugin d’IA, puis créer un outil qui envoie une requête à une base de données d’articles (par exemple arXiv ou une revue académique évaluée par des pairs). Mais il ne s’agit essentiellement que d’une tentative “unique”.
Une meilleure approche serait d’enchaîner plusieurs appels LLM pour adopter une approche étape par étape du problème :
Discuter avec l’utilisateur de son sujet de recherche (boucler cela quelques fois pour obtenir beaucoup de détails)
Résumer les besoins de l’utilisateur selon un modèle prédéfini
Transformer ce résumé en une requête API et recevoir une liste de correspondances potentielles de la base de données d’articles
Analyser le résumé de chaque article pour s’assurer qu’il est réellement pertinent
Présenter cette liste à l’utilisateur et expliquer pourquoi chaque article est pertinent pour son sujet de recherche.
Ce n’est pas ce sur quoi je travaille (je ne veux pas nécessairement divulguer mon modèle économique et mon architecture ), mais c’est un exemple simple et réaliste qui est effectivement traité par certains développeurs.
Essentiellement, ce que j’essaie de vendre aux utilisateurs (via le charmant plugin d’abonnement) est l’accès à un bot d’IA plus complexe qu’une simple invite système avec un outil simple connecté à un service qui renvoie des données (cours des actions, etc.). Plus complexe dans le sens où il résout un problème / répond à une requête utilisateur en plusieurs étapes, chaque étape utilisant un LLM avec une invite système différente. C’est essentiellement ce que fait le nouveau modèle o1 d’OpenAI.
Si vous avez l’intention d’en tirer profit, il est peut-être raisonnable que vous proposiez cette fonctionnalité ? Y avez-vous pensé ?
Je crois qu’ils ajoutent la prise en charge de o1, alors pourquoi ne pas vous en tenir à cela ?
Chatbot pourrait déjà fonctionner avec o1, ce que je confirmerai lorsque je pourrai réellement le tester sans dépenser encore plus d’argent sur mon compte pour atteindre le niveau 5 !
J’y ai certainement pensé, mais en tant que chercheur en IA, mon expérience/connaissance en programmation se concentre sur Python et des bibliothèques comme NumPy, PyTorch, etc. . Je ne connais rien au Ruby et très peu au JavaScript. Cependant, comme je suis tombé amoureux de Discourse, j’ai décidé de commencer lentement à apprendre ces langages ainsi que le développement de plugins Discourse. Donc, si vous avez des recommandations de ressources d’apprentissage, je vous en serais reconnaissant !
o1 est agréable et utile, et je prévois de l’utiliser souvent pour coder, cependant, ce sur quoi je travaille est une architecture cognitive, donc c’est une situation un peu différente. Je suis plutôt dans l’état d’esprit de « Je veux construire quelque chose basé sur la recherche en sciences cognitives computationnelles, et ce serait cool si ça pouvait se vendre » et pas vraiment « J’ai une idée et je peux la déléguer à OpenAI et gagner de l’argent ». J’espère que cela a du sens .
Oh oui, et notre architecture cognitive serait environ 20 fois moins chère que o1 .
Apprenez en faisant, en copiant d’abord les plugins existants et en choisissant d’abord des fonctionnalités faciles à réaliser pour en faire un processus itératif plus simple. Créez quelque chose dont vous avez vraiment besoin, car vous aurez besoin de l’incitation pour surmonter les obstacles que vous rencontrerez.