Discourse Chatbot đŸ€–

@merefield Merci !

Comment diable avez-vous débogué cela si rapidement ?

Je vais supprimer Zendesk
 simple :slight_smile:

1 « J'aime »

Expérience amÚre :sweat_smile:

3 « J'aime »

Bonjour Ă  tous,

J’ai maintenant un compte OpenAI. Dois-je crĂ©er un « Assistant » ? Je me demande juste s’il y a des Ă©tapes Ă  suivre pour intĂ©grer l’IA au plugin ?

Cordialement,

Non, tout ce dont vous avez besoin est un jeton. Vous devrez peut-ĂȘtre crĂ©diter votre compte auprĂšs d’OpenAI pour accĂ©der aux modĂšles plus avancĂ©s et Ă  des limites de dĂ©bit plus Ă©levĂ©es.

Toutes les choses relatives Ă  l’API sont gĂ©rĂ©es par le plugin.

(Au fait, fait amusant - Chatbot ne prend pas explicitement en charge l’API Assistants car il implĂ©mente son propre systĂšme de conversation et de « pensĂ©e intĂ©rieure » sur mesure utilisant uniquement l’API Chat Completions et l’API Embeddings. C’est gĂ©nial car l’API Assistants a la rĂ©putation d’ĂȘtre dĂ©pensiĂšre en jetons et de vous coĂ»ter beaucoup d’argent - Chatbot est conçu pour ĂȘtre Ă©conome !)

Wow, ça fait beaucoup plus que ce que je pensais.

Pourriez-vous m’expliquer ce qu’est un token dans le monde de ChatGPT ? Je paie actuellement pour ChatGPT Premium, cela coĂ»te 20 USD/mois. Mon objectif Ă©tait de permettre Ă  nos utilisateurs de Discourse d’accĂ©der Ă  l’IA que j’ai entraĂźnĂ©e, sur chatgpt.com.

J’espùre que cela a du sens et que le cas d’utilisation est clair !

C’est comme de l’argent. Vous pouvez considĂ©rer les jetons comme des mots ou des parties de mots. Lorsque vous posez une question, cela coĂ»te X jetons. Lorsque OpenAI traite votre question, cela utilise plus de jetons. Et enfin, lorsque votre rĂ©ponse est créée, cela coĂ»te un certain nombre de jetons.

Selon le modÚle utilisé et la conversation, vous devez payer pour cette utilisation de jetons, parfois plus, parfois moins.

1 « J'aime »

La capacitĂ© d’utiliser o1 a beaucoup changĂ© mon utilisation de l’IA (et merci
 pas Ă  Dieu, mais aux compĂ©tences de codage de Robert, je peux limiter son utilisation uniquement pour moi). Mais la sĂ©rie o1 n’utilise pas d’invite systĂšme, j’ai donc dĂ» ajouter des instructions, comme la façon d’afficher les mathĂ©matiques, etc., dans mon invite.

Ce serait plus facile si nous avions un texte standard Ă  ajouter automatiquement aprĂšs l’invite rĂ©elle, alias le post. Discourse a, en quelque sorte, cette capacitĂ©, mais soit je ne peux pas l’utiliser, soit j’essaie de l’utiliser mal. Il devrait apparaĂźtre dans chaque catĂ©gorie et message privĂ© lorsque le Chatbot est mentionnĂ© ou fait partie d’un message privĂ©. Et seulement lorsque o1 ou o1-mini est utilisĂ© :woozy_face:

La sĂ©rie o1 n’est pas encore prĂȘte, elle pourrait donc changer Ă  un moment donnĂ© dans la façon dont elle peut utiliser les outils, etc. Donc, de cette façon, je ne demande pas une nouvelle fonctionnalitĂ©, mais je discute peut-ĂȘtre des options. Et la sĂ©rie o1 ne sera jamais une solution de masse, elle est trop spĂ©cialisĂ©e (et chĂšre), donc la demande oĂč un utilisateur doit juste se souvenir d’ajouter ces rĂšgles supplĂ©mentaires peut ĂȘtre justifiĂ©e.

Hors sujet, mais les modÚles GPT ont appris les mathématiques lors de la publication de o1.

1 « J'aime »

Oui, nous ne pouvons pas trop nous concentrer sur la personnalisation pour compenser les incohĂ©rences d’OpenAI.

Je soupçonne fortement que des outils et mĂȘme des fonctionnalitĂ©s de prompt systĂšme seront disponibles lorsque o1 sortira de la prĂ©version.

Je ne suis pas convaincu que Chatbot soit l’endroit idĂ©al pour implĂ©menter un systĂšme de « snippets Â», bien que je me souvienne que l’un des membres de l’équipe l’ait créé, laissez-moi le trouver et mettre Ă  jour le post


Voici :\n\nInsertable, centrally maintained text/markdown snippets - #2 by Johani

4 « J'aime »

Merci @Jagster pour ces informations trĂšs claires. Je pense que je voulais dire autre chose, peut-ĂȘtre ? J’essaie d’intĂ©grer ce plugin avec OpenAI en utilisant ceci,

. J’essaie juste d’obtenir des informations de base sur la façon de connecter les choses.

2 « J'aime »

Il s’agit simplement d’une clĂ© d’API que vous gĂ©nĂ©rerez pour obtenir l’accĂšs. Rien de plus, votre mot de passe, pourrait-on dire.

3 « J'aime »

Ah, je comprends maintenant la confusion.

Oui, il y a un token (ou une clĂ© API, que vous devez obtenir d’OpenAI) et il y a des tokens textuels qui reprĂ©sentent des parties de mots. Ces derniers sont traitĂ©s par le LLM. Le premier sert Ă  vous authentifier auprĂšs de l’API.

Voici un guide assez bon sur la terminologie de The Verge :

5 « J'aime »

Je fais tourner Llama localement et je suis trĂšs proche d’y parvenir sur une instance Discourse locale. Le chatbot discute :lunettes de soleil: mais j’ai du mal Ă  obtenir l’intĂ©gration. J’ai mon utilisateur de rĂ©fĂ©rence au niveau de confiance 1. La tĂąche Rake rake chatbot:refresh_embeddings[1] Ă©choue avec un problĂšme d’authentification.

Faraday::UnauthorizedError: le serveur a répondu avec le statut 401 (Faraday::UnauthorizedError)

Dans le champ du jeton OpenAI du chatbot, j’ai collĂ© l’URL que Llama m’a donnĂ©e

Auriez-vous des suggestions sur la maniùre dont je devrais m’authentifier correctement ?

4 « J'aime »

Super que vous ayez essayé !

Content qu’il discute :sourire:
Je ne sais pas s’il est possible d’utiliser le Chatbot avec des intĂ©grations localement.

J’accepterais une bonne PR pour ajouter le support.

J’ai trouvĂ© ceci :

Donc, cela pourrait ĂȘtre possible avec le bon modĂšle et le code et les paramĂštres supplĂ©mentaires pertinents dans Chatbot. Vous auriez probablement besoin d’un paramĂštre de modĂšle d’intĂ©gration personnalisĂ© qui n’existe pas encore.

Il y a déjà ceci cependant :

chatbot open ai embeddings model custom url

qui a Ă©tĂ© principalement implĂ©mentĂ© pour aider Ă  supporter Azure mais peut ĂȘtre rĂ©utilisĂ© de la mĂȘme maniĂšre que les Chat Completions peuvent pointer vers le service ollama local.

J’apprĂ©cie que cela limite actuellement l’utilitĂ© du bot localement.

C’est le jeton envoyĂ© au point de terminaison. C’est simplement un champ de texte. Je doute fort qu’une URL ici fonctionne. Il existe des paramĂštres d’URL personnalisĂ©s pour les points de terminaison de chat completions plus bas :

par exemple chatbot open ai model custom url high trust

Si vous crĂ©ez une fork et apportez les ajouts pertinents qui sont en ligne avec ce qui existe dĂ©jĂ , exploitez ce qui est dĂ©jĂ  disponible, mais ajoutez le minimum nĂ©cessaire pour obtenir le support des intĂ©grations locales avec ollama, tout en conservant le comportement existant avec Open AI et Azure, j’examinerais certainement une PR en vue de la fusion.

2 « J'aime »

Prochainement
D’autres fonctionnalitĂ©s seront bientĂŽt disponibles pour prendre en charge les flux de travail impliquant des embeddings :


CompatibilitĂ© avec l’API OpenAI : prise en charge du point de terminaison compatible OpenAI /v1/embeddings

Étant donnĂ© que prochainement est gĂ©nĂ©ralement trĂšs rapide dans ce domaine en Ă©volution rapide, est-ce quelque chose qui vaut la peine d’attendre pour rĂ©soudre mon cas d’utilisation ?

Notre instance est une mine d’informations remontant Ă  20 ans, mais les fuites sont Ă©galement une prĂ©occupation majeure, d’oĂč le souhait de tests locaux.

1 « J'aime »

Je pense avoir trouvĂ© une PR Ollama qui semble rĂ©soudre la compatibilitĂ© des points de terminaison de l’API. Je dois mieux comprendre cela, mais suis-je sur la bonne voie ?

1 « J'aime »

bien, actuellement, il n’y a pas de paramĂštre pour un modĂšle d’intĂ©gration personnalisĂ©, c’est donc un obstacle majeur.

lors de l’exĂ©cution en local, vous pourriez essayer en codant en dur le modĂšle sur celui que vous avez tĂ©lĂ©chargĂ© pour ollama.

en y rĂ©flĂ©chissant davantage, l’autre problĂšme que vous rencontrerez est que la dĂ©finition de la table d’intĂ©gration a des dimensions dĂ©finies selon la norme du petit modĂšle open AI, ce qui est ÉNORME
 peut-ĂȘtre pourriez-vous rĂ©flĂ©chir Ă  la maniĂšre de surmonter cela


1 « J'aime »

Chatbot 1.2. introduit la collecte de champs utilisateur alimentĂ©e par l’IA comme fonctionnalitĂ© expĂ©rimentale.

Si un utilisateur a des champs utilisateur facultatifs actuellement vides, l’activation de ce paramĂštre amĂšnera le bot Ă  commencer Ă  demander Ă  l’utilisateur les informations. Il progressera Ă  travers les champs utilisateur en suspens jusqu’à ce qu’ils soient complĂ©tĂ©s, puis reviendra au comportement normal.

image

(Désolé pour la lenteur de la réponse - ceci a été enregistré en développement)

NB Cette fonctionnalité ne prend en charge que :

  • Texte
  • Listes dĂ©roulantes
  • Confirmations

La sĂ©lection multiple n’est pas encore prise en charge.

Les champs doivent ĂȘtre facultatifs.

L’ordre des champs utilisateur dĂ©termine la prioritĂ©.

6 « J'aime »

Chatbot 1.3 est sorti :tada:

  • NOUVEAUTÉ : ajout d’une option pour gĂ©rer les quotas par jeton
    • Le nouveau paramĂštre chatbot_quota_basis vous permet d’activer cette option, sinon elle reste basĂ©e sur le nombre de requĂȘtes.
    • La seule diffĂ©rence par dĂ©faut est que le quota dĂ©compte Ă  partir du quota maximum de dĂ©part (qui est toujours basĂ© sur les mĂȘmes paramĂštres de niveau de confiance).
  • NOUVEAUTÉ : inclusion du coĂ»t des appels API comme DALL-E dans la consommation utilisateur
    • BasĂ© uniquement sur les jetons
    • Divers nouveaux paramĂštres pour ajuster le coĂ»t en jetons des fonctionnalitĂ©s de l’API
  • NOUVEAUTÉ : ajout d’une fonction permettant Ă  l’utilisateur de vĂ©rifier son quota restant

Chatbot a toujours permis d’appliquer un quota d’utilisation.

Aujourd’hui, cela devient plus sophistiquĂ© !

Chatbot peut dĂ©sormais suivre et appliquer un quota d’utilisation par jeton.

Vous pouvez tarifer les appels aux API pour dĂ©courager leur surutilisation, afin que vous puissiez vous inquiĂ©ter moins de donner accĂšs aux gens Ă  la gĂ©nĂ©ration d’images, par exemple.

Le suivi des jetons est une option. Si vous passez au suivi par jeton, assurez-vous d’augmenter le quota de chaque niveau de confiance, car les valeurs devront ĂȘtre plusieurs ordres de grandeur supĂ©rieures. ExpĂ©rimentez.

Cependant, le suivi par requĂȘte a lĂ©gĂšrement changĂ©. Il sera dĂ©sormais rĂ©initialisĂ© Ă  votre nombre maximum de requĂȘtes autorisĂ©es et comptera Ă  rebours jusqu’à zĂ©ro.

Vous pourriez envisager d’exĂ©cuter le travail de rĂ©initialisation globale des quotas une fois de maniĂšre unique pour vous assurer que tout le monde commence avec un quota complet. C’est une opĂ©ration unique !

Dans Sidekiq, Ă  /sidekiq/scheduler :

Appuyez sur le bouton déclencheur.

Dans les deux cas, les utilisateurs peuvent désormais demander quel quota il leur reste :

NB : problĂšme connu : si cette question est posĂ©e pour la premiĂšre fois avant que le travail de rĂ©initialisation n’ait Ă©tĂ© exĂ©cutĂ©, la rĂ©ponse peut ĂȘtre un peu Ă©trange ! IndĂ©pendamment de l’exĂ©cution du travail de rĂ©initialisation, la deuxiĂšme fois que cette question est posĂ©e, elle devrait fonctionner correctement.

4 « J'aime »

Salut Robert,

J’apprĂ©cie tout le travail que tu as investi dans le bot, cependant, je rencontre l’erreur suivante dans les journaux lorsque j’essaie de l’invoquer dans le chat.

image

Des idées sans désinstaller/réinstaller ?

1 « J'aime »