LLM und NSFW-Inhaltserkennung Verzögerung

LLMs können langsam sein, daher kann der Beitrag, der NSFW-Bilder enthält, mehrere Sekunden lang sichtbar sein, bevor er markiert und ausgeblendet wird.
Ich frage mich, ob die NSFW-Erkennung erfolgen kann, nachdem der Benutzer Bilder hochgeladen hat und bevor der Beitrag übermittelt wird?
Selbst wenn Benutzer warten müssen, bis die Triage abgeschlossen ist, bevor sie den Beitrag absenden können. In manchen Szenarien ist dies akzeptabel.

4 „Gefällt mir“

Derzeit nicht unterstützt, aber wir haben viele Bausteine, um dies zu ermöglichen. Vielleicht lohnt es sich, dies in einem #contribute:feature-Thema zu erwähnen, wenn Sie genau angeben können, wie Sie sich dessen Funktionsweise vorstellen.

Der Nachteil beim Scannen von NSFW-Bildern, die noch nicht gepostet wurden, ist, dass die LLM-Kosten steigen könnten, wenn Leute nur mit dem Upload-Button spielen.


In einigen Foren könnte ich jedoch einen Nutzen in einem

[Warte auf Inhalts-Scan] Platzhalter

sehen, der angezeigt wird, bis das Bild endlich gescannt wurde.

2 „Gefällt mir“