اليوم نعلن عن وداع وحدة Discourse AI - Toxicity
لصالح https://meta.discourse.org/t/discourse-ai-post-classifier-automation-rule/281227، مستفيدين من قوة نماذج اللغة الكبيرة (LLMs) لتقديم تجربة فائقة.
لماذا نفعل هذا؟
في السابق، كان استخدام وحدة السم يعني..
- أنك كنت مقيدًا باستخدام نموذج واحد محدد مسبقًا
- لا توجد تخصيصات لاحتياجات مجتمعك الخاصة
- مقاييس عتبة مربكة
- أداء دون المستوى
لقد قطعت نماذج LLMs شوطًا طويلاً ويمكنها الآن تقديم تجربة أفضل أداءً وقابلة للتخصيص.
ما الجديد؟
يمكن استخدام Discourse AI - AI triage لفرز المشاركات بحثًا عن السمية (من بين طرق أخرى) وفرض التزام المجتمعات بمدونات سلوك محددة. هذا يعني…
- دعم نماذج LLMs متعددة لمتطلبات أداء مختلفة
- سهولة تحديد ما وكيف يجب التعامل مع المحتوى
- مطالبات قابلة للتخصيص لاحتياجات المجتمع الخاصة
- وضع علامة على المحتوى للمراجعة
وأكثر من ذلك بكثير.
للمساعدة في الانتقال، قمنا بالفعل بكتابة أدلة
- إعداد اكتشاف السمية/مدونة السلوك في مجتمعك
- إعداد اكتشاف البريد العشوائي في مجتمعك
- إعداد اكتشاف المحتوى غير اللائق (NSFW) في مجتمعك
ماذا يحدث لوحدة السمية؟
يجب اعتبار هذا الإعلان مبكرًا جدًا، حتى نكون مستعدين لإيقاف التشغيل، يمكنك الاستمرار في استخدام وحدة السمية. عندما نفعل ذلك، سنقوم بإيقاف تشغيل الوحدة وإزالة جميع الأكواد من إضافة Discourse AI والخدمات المرتبطة بها من خوادمنا.
تحديث: تمت إزالة وحدة السمية رسميًا من Discourse، وهذا يشمل جميع إعدادات وميزات الموقع ذات الصلة. نحث المستخدمين الآن على الانتقال إلى استخدام Discourse AI - AI triage واتباع الأدلة المذكورة أعلاه.
سيشهد عملاء الأعمال والمؤسسات ما يلي ضمن “ما الجديد” في إعدادات المسؤول على مواقعهم، مما يسمح لهم بتمكين نماذج LLMs المستضافة بواسطة Discourse لتشغيل فرز الذكاء الاصطناعي دون أي تكلفة إضافية.

