أنا أعمل في بيئة مؤسسة ونحن نستخدم Discourse كمنتدى مناقشة لدعم منصة سحابية.
نريد استخدام إضافة Discourse AI لعدة حالات استخدام ولديك endpoints ذكية داخلية تتوافق مع OpenAI.
المشكلة هي أن الطلبات الصادرة إلى هذه الخطوط يجب أن تتضمن رأس مصادقة مع رمز OAuth2 يأتي من نقطة نهاية مصادقة M2M داخلية والتي يجب استرجاعها مسبقًا.
فكرت في عدة طرق، مثل وكيل محلي على مثيل EC2 الذي يستضيف Discourse، والذي يمكن أن يثري الطلب بمعلومات المصادقة تلك.
هناك طريقة أخرى وهي بوابة API مع Lambda تفويض تحصل على الرمز المميز.
ما لم أفهمه حتى الآن هو الأدوات التي يمكن إضافتها داخل إضافة Discourse AI نفسها.
هل يمكن استخدام ذلك لتحقيق ما أريد؟
يا إلهي، هذا متقدم حقًا.
أعتقد أنه إذا كانت الأدوات المخصصة تأتي بثراء كافٍ، فيمكنها تحقيق ذلك… يبدو الأمر وكأنه آلة روب غولدبرغ قليلاً، لكن تخيل.
إذا كان التكوين يحتوي على شخصية:
يجبر استدعاءات الأدوات
لديه أداة مخصصة مجبرة ولا تحتوي على أي معلمات
عندها لا نستدعي أي نموذج لغوي كبير ونمرر التحكم ببساطة إلى الأداة
عندها نعطي الأداة بنية تحتية كافية لبث النتائج مرة أخرى إلى التطبيق عبر انعكاس التحكم بطريقة ما
إنه قدر هائل من التغيير وسيكون من الصعب للغاية صيانته.
أعتقد أن البديل هو أن تحدد مكونًا إضافيًا مخصصًا جديدًا يعتمد على Discourse-AI ويحدد لهجتك ونقطة النهاية الخاصة بك - إنها بالتأكيد أبسط طريقة للقيام بذلك.
من الأسهل بكثير تلبية هذه الحاجة المحددة عبر وكيل خفيف الوزن، مثل Nginx مع برمجة LUA النصية، لدرجة أنني أعتقد أن @Wurzelseppi سيستفيد بشكل أفضل من هذا المسار.