Discourse AIにおけるNSFW検出の今後

もし以前のお知らせをご覧になっていれば、LLMによるソリューションがはるかに優れた体験を提供するため、そちらを優先する方向へ移行していることをご存知でしょう。そのため、まもなくNSFWモジュールを廃止し、Discourse AI Post Classifier - Automation rules に移行します (下記アップデート参照)

なぜこれを行うのか?

同じ理由です…

新機能は?

NSFWはどうなるのか?

このお知らせは非常に早期のものであると見なされるべきです。廃止の準備ができるまでNSFWを使い続けることができます。廃止する際には、モジュールを廃止し、Discourse AIプラグインおよび関連サービスからすべてのコードをサーバーから削除します。非推奨は、AI Triageが画像を処理できるようになってからのみ行われます。これはまもなく完了します。

:backhand_index_pointing_right:t5: アップデート: NSFWモジュールはDiscourseから正式に削除されました。これには、関連するすべてのサイト設定と機能が含まれます。現在、ユーザーにはDiscourse AI - AI triageへの移行と、上記のガイドに従うことを推奨しています。

ビジネスおよびエンタープライズのお客様は、サイトの管理設定の「新機能」の下に、DiscourseホストLLMをAIトリアージの電力として追加費用なしで有効にできる以下の項目が表示されます。

「いいね!」 9

FYI、以下の変更について

「いいね!」 2

この部分は完了しました。画像検出のために AI Triage を介して、ビジョン搭載 LLM を構成して使用してください。

念のため、NSFW モジュールはまだ廃止されていません。これにはまだ時間がかかります。

新しいガイドがこちらで利用可能です

「いいね!」 3

念のため、ToxicityとNSFWを有効/無効にするサイト設定を現在非表示にしています。これは、これらの機能を非推奨とし続けるための継続的な取り組みの一環です。

これらの機能をオンにしている場合、引き続き通常どおり動作します。まだ完全に非推奨にしたわけではありません。

オフにしていてオンにしたい場合は、今後それができなくなります。

「いいね!」 1

皆さん、こちらにアップデート情報を共有します