このトピックでは、Discourse AI プラグインの NSFW (Not Safe For Work) 機能の設定について説明します。
必要なユーザーレベル: 管理者
NSFW モジュールは、Discourse インスタンスの投稿やチャットメッセージにおけるすべての新しい画像アップロードの NSFW スコアを自動的に分類できます。このシステムは、専門的または公開環境で不適切または露骨な可能性のあるコンテンツを特定および管理するのに役立ちます。
しきい値を超えるコンテンツの自動フラグ付けを有効にすることもできます。
設定
ai_nsfw_detection_enabled: モジュールを有効または無効にします。
ai_nsfw_inference_service_api_endpoint: モジュールの API が実行されている URL。CDCK ホスティングを使用している場合は、自動的に処理されます。セルフホスティングの場合は、セルフホスティング ガイドを確認してください。
ai_nsfw_inference_service_api_key: 上記で設定した API の API キー。CDCK ホスティングを使用している場合は、自動的に処理されます。セルフホスティングの場合は、セルフホスティング ガイドを確認してください。
ai_nsfw_models: 画像分類に使用するモデル。しきい値を持つ 2 つの異なるモデルを提供しています。
- opennsfw2:
0.0から1.0の間の単一スコアを返します。ai_nsfw_flag_threshold_general設定を通じて、アップロードが NSFW と見なされるためのしきい値を設定します。- nsfw_detector:
drawings、hentai、porn、sexyの 4 つのカテゴリのスコアを返します。それぞれのしきい値は、対応するai_nsfw_flag_threshold_${category}設定を通じて設定します。一般的なしきい値がこれらのいずれかよりも低い場合、コンテンツは NSFW と見なされます。ai_nsfw_flag_automatically: 設定されたしきい値を超える投稿/チャットメッセージを自動的にフラグ付けします。この設定が無効になっている場合、分類結果はデータベースにのみ保存されます。
追加リソース
「いいね!」 11