يغطي هذا الموضوع إعداد ميزة NSFW (غير آمن للعمل) الخاصة بمكون Discourse AI الإضافي.
مستوى المستخدم المطلوب: مسؤول
يمكن لوحدات NSFW تصنيف درجة NSFW تلقائيًا لكل تحميل صورة جديد في المنشورات ورسائل الدردشة في مثيل Discourse الخاص بك. يساعد هذا النظام في تحديد وإدارة المحتوى الذي قد يكون غير مناسب أو صريحًا لبيئة احترافية أو عامة.
يمكنك أيضًا تمكين وضع علامة تلقائية على المحتوى الذي يتجاوز عتبة معينة.
الإعدادات
ai_nsfw_detection_enabled: تمكين أو تعطيل الوحدة.
ai_nsfw_inference_service_api_endpoint: عنوان URL حيث تعمل واجهة برمجة التطبيقات (API) للوحدة. إذا كنت تستخدم استضافة CDCK، فسيتم التعامل مع هذا تلقائيًا. إذا كنت تستضيف بنفسك، تحقق من دليل الاستضافة الذاتية.
ai_nsfw_inference_service_api_key: مفتاح API لواجهة برمجة التطبيقات (API) المكونة أعلاه. إذا كنت تستخدم استضافة CDCK، فسيتم التعامل مع هذا تلقائيًا. إذا كنت تستضيف بنفسك، تحقق من دليل الاستضافة الذاتية.
ai_nsfw_models: النموذج الذي سنستخدمه لتصنيف الصور. نقدم نموذجين مختلفين مع عتباتهما:
- opennsfw2 يُرجع درجة واحدة بين
0.0و1.0. قم بتعيين العتبة لاعتبار التحميل غير آمن للعمل (NSFW) من خلال إعدادai_nsfw_flag_threshold_general.- nsfw_detector يُرجع درجات لأربع فئات:
drawings(رسومات)،hentai(هينتاي)،porn(مواد إباحية)، وsexy(مثير). قم بتعيين العتبة لكل منها من خلال إعدادai_nsfw_flag_threshold_${category}الخاص بها. إذا كانت العتبة العامة أقل من أي من هذه، فسنعتبر المحتوى غير آمن للعمل (NSFW).ai_nsfw_flag_automatically: وضع علامة تلقائية على المنشورات/رسائل الدردشة التي تتجاوز العتبات المكونة. عندما يتم تعطيل هذا الإعداد، نقوم فقط بتخزين نتائج التصنيف في قاعدة البيانات.
موارد إضافية
11 إعجابًا