ملحق Discourse AI يدعم طلب تصنيف المشاعر/العواطف للمنشورات الجديدة، والتي يتم تخزينها في قاعدة البيانات ويمكن استخدامها في التقارير ولوحات معلومات المسؤول.
التشغيل باستخدام HuggingFace TEI
توفر HuggingFace صورة حاوية رائعة يمكنها تشغيلك بسرعة.
يجب أن يتيح لك هذا تشغيل نسخة محلية من ‘cardiffnlp/twitter-roberta-base-sentiment-latest’، وهو نموذج مفتوح يمكنه تصنيف المنشورات إلى إيجابي/سلبي/محايد.
يمكنك التحقق مما إذا كان يعمل باستخدام
curl http://localhost:8081/ \
-X POST \
-H 'Content-Type: application/json' \
"{ \"inputs\": \"I am happy\" }"
والذي يجب أن يعيد مصفوفة من الثقة لكل تسمية في ظل التشغيل العادي.
في معظم الأحيان، ستقوم بتشغيل هذا على خادم مخصص بسبب تسريع وحدة معالجة الرسومات. عند القيام بذلك، أوصي بتشغيل وكيل عكسي، وإجراء إنهاء TLS، وتأمين نقطة النهاية بحيث لا يمكن الاتصال بها إلا بواسطة مثيل Discourse الخاص بك.
تكوين Discourse AI
يتضمن Discourse AI إعدادات الموقع لتكوين خادم الاستدلال للنماذج مفتوحة المصدر. يجب عليك توجيهه إلى خادمك باستخدام الإعداد ai_sentiment_model_configs.
بعد ذلك، قم بتمكين التصنيف عن طريق تبديل ai_sentiment_enabled.
@Falco إذا قرر أحد تشغيل هذا على نفس الخادم الذي يشغل discourse (على سبيل المثال، لدينا نشر صغير جدًا ببضع آلاف من المشاركات)، هل يمكنك تحديث التعليمات لتوضح
كيف يمكن ل discourse الاندماج مع نسخة محلية من صورة الحاوية HuggingFace TEI
اقتراحات حول مقدار الذاكرة العشوائية/القرص الإضافي المطلوب لتشغيل ما سبق (على سبيل المثال، إذا كانت النسخة الأساسية من Discourse تعمل بذاكرة RAM 2GB و20GB من القرص)
اصطدمتُ بوجهي بجدار من الطوب من عدم معرفتي بما أفعله لمحاولة تشغيل هذا على مثيل EC2 بدون وحدة معالجة رسومات. على الأقل إلى أقصى حدود قدراتي وفهمي المحدود للغاية هنا، فإن محاولة القيام بذلك مع مثيل يعتمد على وحدة المعالجة المركزية فقط يعني المزيد من أعمال التكوين التي لا يمكنني فهمها. إصدارات cpu من ghcr.io/huggingface/text-embeddings-inference ترفض تحميل أي من نموذجي الاستماع؛ يخبرني كل من Claude و GPT5 أنني بحاجة إلى تحويلهما إلى نماذج ONNX باستخدام مجموعة من أدوات بايثون، وهذا هو المكان الذي انسحبت فيه.
(من الممكن جدًا أيضًا أنني غبي وأفتقد خطوة واضحة!)
نحن نحاول استخدام هذه الميزة مع Azure AI Language (من مثيل Discourse المستضاف ذاتيًا) - حيث أننا نستخدم بالفعل اشتراك Azure الخاص بنا لدمج GPT-4.5 مع Discourse (للتلخيص ووظائف روبوت الدردشة):
ولكننا لا نحصل على أي بيانات في لوحة معلومات المشاعر، ويمكننا رؤية هذه الأخطاء في السجلات:
Discourse AI: Errors during bulk classification: Failed to classify 208 posts (example ids: 2256, 909, 2270, 2260, 2797) : JSON::ParserError : An empty string is not a valid JSON string.
يُظهر تتبع المكدس أن Discourse قد يحاول استخدام HuggingFace - هل هذه هي النماذج الوحيدة المدعومة في الوقت الحالي؟
نعم، لدينا تطبيق محدد جدًا، ونفكر في كيفية جعله أكثر عمومية
أنا متفائل بشأن مجرد السماح لنماذج اللغة الكبيرة بإرجاع مخرجات منظمة للمشاعر، لأن ذلك يفتح الأبواب أمام العديد من الخيارات هناك وأشعر أنه كاتجاه، يتم استبدال واجهات برمجة التطبيقات “المحددة للغاية” بواجهات برمجة التطبيقات “العامة للغاية” التي توفرها نماذج اللغة الكبيرة.