هل يمكن تعزيز استدعاءات API لـ AI Plugin؟

مرحبًا يا أصدقاء،

أنا أعمل في بيئة مؤسسة ونحن نستخدم Discourse كمنتدى مناقشة لدعم منصة سحابية.
نريد استخدام إضافة Discourse AI لعدة حالات استخدام ولديك endpoints ذكية داخلية تتوافق مع OpenAI.

المشكلة هي أن الطلبات الصادرة إلى هذه الخطوط يجب أن تتضمن رأس مصادقة مع رمز OAuth2 يأتي من نقطة نهاية مصادقة M2M داخلية والتي يجب استرجاعها مسبقًا.

فكرت في عدة طرق، مثل وكيل محلي على مثيل EC2 الذي يستضيف Discourse، والذي يمكن أن يثري الطلب بمعلومات المصادقة تلك.
هناك طريقة أخرى وهي بوابة API مع Lambda تفويض تحصل على الرمز المميز.

ما لم أفهمه حتى الآن هو الأدوات التي يمكن إضافتها داخل إضافة Discourse AI نفسها.
هل يمكن استخدام ذلك لتحقيق ما أريد؟

شكرًا جزيلًا على دعمكم، ونتمنى لكم يومًا رائعًا!

تحياتي،

WS

هذه مسألة صعبة.

بشكل عام، لا نحب إضافة الكثير من الخيارات لأنها تربك الناس، لكنني أتفهم أن هذا صعب الحل الآن، وقد نحتاج إلى خيار آخر.

أحد الخيارات هو السماح للمتوافق مع OpenAI بالحصول على قسم “رؤوس مخصصة”.

لم تتمكن الأدوات من حل هذا بسهولة لأن هذا سيؤدي إلى سير عمل معقد بشكل لا يصدق، وليس لدينا القدرة على تمرير جميع المعلومات التي تحتاجها الأداة بسهولة.

@Falco ما رأيك؟

نقل هذا إلى ميزة، لأنه طلب ميزة.

إعجاب واحد (1)

مرحباً @sam،

شكراً على ردك وأفكارك حول هذا الموضوع.

لن يكون حقل للترويسات المخصصة كافياً، لأن الرمز يجب استرجاعه ديناميكياً قبل كل استدعاء لواجهة برمجة التطبيقات (API).

ربما بالأحرى نوع من خط الأنابيب/البرنامج الوسيط، حيث يمكن لشخص ما تحويل المكالمة الصادرة بأكملها باستخدام رمزه الخاص قبل إرسالها؟

شكراً جزيلاً لكم جميعاً وأتمنى لكم يوماً رائعاً!

مع خالص التقدير،

WS

يا إلهي، هذا متقدم حقًا.
أعتقد أنه إذا كانت الأدوات المخصصة تأتي بثراء كافٍ، فيمكنها تحقيق ذلك… يبدو الأمر وكأنه آلة روب غولدبرغ قليلاً، لكن تخيل.

  1. إذا كان التكوين يحتوي على شخصية:
    1. يجبر استدعاءات الأدوات
    2. لديه أداة مخصصة مجبرة ولا تحتوي على أي معلمات
  2. عندها لا نستدعي أي نموذج لغوي كبير ونمرر التحكم ببساطة إلى الأداة
  3. عندها نعطي الأداة بنية تحتية كافية لبث النتائج مرة أخرى إلى التطبيق عبر انعكاس التحكم بطريقة ما

إنه قدر هائل من التغيير وسيكون من الصعب للغاية صيانته.
أعتقد أن البديل هو أن تحدد مكونًا إضافيًا مخصصًا جديدًا يعتمد على Discourse-AI ويحدد لهجتك ونقطة النهاية الخاصة بك - إنها بالتأكيد أبسط طريقة للقيام بذلك.

من الأسهل بكثير تلبية هذه الحاجة المحددة عبر وكيل خفيف الوزن، مثل Nginx مع برمجة LUA النصية، لدرجة أنني أعتقد أن @Wurzelseppi سيستفيد بشكل أفضل من هذا المسار.

إعجاب واحد (1)

يا شباب،

أنتم رائعون في مناقشة حاجة مستخدم صغير مثلي بجدية. أنا دائمًا منبهر بتفانيكم، وأعني ذلك (لا مزحة :slight_smile: )

نعم، بما أن كل شيء يعمل على مثيل ec2 وقد قررت بالفعل اتباع مسار AWS API Gateway → Lambda → LLM endpoint …

سيكون البناء المدمج في discourse أفضل، لكنني أتفهم التعقيد الذي سيجلبه ذلك، بالطبع …

شكرًا جزيلاً لوقتكم، والوقت الذي تساعدون فيه جميع المستخدمين هنا!

لم أستطع التفكير في برنامج لوحة أفضل، ليس فقط بسبب نضج البرنامج، ولكن أيضًا بسبب الأشخاص الذين يقدمون الدعم.

أسبوع رائع يا شباب … وابقى كما أنتم!

تحياتي،

WS

إعجاب واحد (1)