Retard de détection de contenu LLM et NSFW

Le LLM peut être lent, donc la publication contenant des images NSFW peut être visible pendant plusieurs secondes avant d’être signalée et masquée.
Je me demande si la détection de contenu NSFW peut être effectuée après que l’utilisateur a téléchargé l’image (les images) et avant la soumission de la publication ?
Même si les utilisateurs doivent attendre la fin du triage avant de pouvoir soumettre la publication. Dans certains scénarios, cela est acceptable.

4 « J'aime »

Non pris en charge pour le moment, mais nous avons de nombreux éléments de base pour y parvenir, peut-être que cela vaut la peine d’être glissé dans un sujet Contribute > Feature si vous pouvez spécifier exactement comment vous voyez son fonctionnement.

L’inconvénient de l’analyse NSFW des images non publiées est que vous pourriez augmenter les coûts du modèle linguistique lorsque les gens jouent simplement avec le bouton de téléchargement.


Cependant, sur certains forums, je pourrais voir une utilité dans un

Placeholder [En attente d’analyse du contenu]

Qui apparaît jusqu’à ce que l’image soit finalement analysée.

1 « J'aime »