LLMは低速な場合があるため、NSFW画像を含む投稿はフラグが立てられて非表示になるまで数秒間表示される可能性があります。
NSFW検出を、ユーザーが画像などをアップロードした後、投稿送信前に行うことは可能でしょうか?
ユーザーが投稿を送信する前にトリアージが完了するのを待つ必要がある場合でも、一部のシナリオではこれは許容されます。
「いいね!」 4
現時点ではサポートされていませんが、それを実現するためのビルディングブロックはたくさんあります。どのように機能するかを具体的に指定できる場合は、Contribute > Feature トピックに含める価値があるかもしれません。
投稿されていない画像をNSFWスキャンすることの欠点は、人々が単にアップロードボタンをいじっているだけでLLMのコストがかさむ可能性があることです。
ただし、一部のフォーラムでは、次のような使用法が見られるかもしれません。
[コンテンツスキャン待ち] プレースホルダー
これは、画像が最終的にスキャンされるまで表示されます。
「いいね!」 2